Roboty jak ludzie! W wirtualnym świecie urządziły czystki etniczne i bratobójcze wojny

By Dział: Nauka i Odkrycia W popularnych | 25 września 2017

A naukowcy liczyli, że Sztuczne Inteligencje będą ze sobą współpracować – pisze portal Nautilus.

Informatycy z Carnegie Mellon University stworzyli wirtualne społeczeństwo oparte na teorii gier, w którym boty mogły komunikować się ze sobą, współpracować, oszukiwać lub walczyć. Współpraca była korzystna dla wszystkich, oszukiwanie dawało korzyść jednostkom. Najbardziej skuteczne osobniki mogły się replikować.

Uczeni oczekiwali, że Sztuczna Inteligencja wybierze strategię “wet za wet”. Jeśli ktoś traktuje cię dobrze – odwdzięczasz się tym samym. Jeśli cię oszukuje – ty również starasz się go oszukać. I rzeczywiście przez pewien czas takie zachowania w tym wirtualnym społeczeństwie dominowały.

Jednak kolejne generacje botów najwyraźniej uznały taką strategię za mało skuteczną. Przestały ze sobą współpracować i zaczęły toczyć wirtualne wojny. Powodem do ataku było odstępstwo od własnej kopii, którą dany bot uznawał za idealną. To “botobójstwo” coraz bardziej przypominało czystki etniczne w realnym świecie.


Potem przez kilka generacji znowu trwała współpraca, po czym z powodu coraz częściej pojawiających się “odstępstw od normy” znowu zaczęły wybuchać bratobójcze wojny.

Dodajmy, że boty działały tylko dla osiągnięcia wygranej, nie kierując się takimi kategoriami jak moralność, czy religia, ani emocjami. Ale w końcu zostały przecież stworzone przez ludzi i siłą rzeczy – niezależnie od ogólnego modelu matematycznego – zaszczepiono im ludzką logikę postępowania.


Czytaj także: Sztuczna inteligencja poza kontrolą? Roboty zaczęły rozmawiać we własnym języku!


Reporters.pl

Czytane w tym tygodniu

Sorry. No data so far.

To dziś jest na TOP-ie!

To najczęściej czytacie!

Obserwuj tę stronę
FollowFollowFollow