Спонсорираното от Google подразделение DeepMind, което работи за развитие на изкуствения интелект (AI), проведе проучване, за да провери дали AI системите ще бъдат агресивни или ще си сътрудничат, когато играят игри.

При първата игра – Gathering, трябва да се събират виртуални ябълки. Изкуственият интелект има „под ръка“ виртуален лазер, с който може да стреля по опонента си и да го „извади от строя“ временно.

При втората игра – Wolfpack, двама играчи трябва да преследват трети в терен пълен с предизвикателства. Точки се печелят не само от този, който хване плячката, но и от тези, които са близо до нея, когато тя бъде хваната.

Резултатите от тестовете са стряскащи, но едва ли изненадват като се има предвид, че изкуственият интелект е създаден от човек.

При първата игра се отчита, че, когато има много ябълки, изкуственият интелект е по-склонен да си ги „събира“ мирно, но когато ябълките намалеят, той започва да предпочита лазера. Когато обаче в играта влезе по-развита  AI система, тя решава да използва много по-често лазера, независимо дали има много или малко ябълки.

В играта Wolfpack се наблюдава по-различно поведение. Тук по-умният изкуствен интелект решава, че е по-добре да си сътрудничи с другия играч за постигане на целта. В този случай обаче трябва да се отбележи факта, че точки получават и двамата играчи – този, който залавя и този, който просто е в близост в момента на залавяне на плячката. При нормални човешки отношения говорим за сътрудничество, носещо взаимна полза.

В играта с ябълките сътрудничеството не носеше полза и резултатът беше свързан с използване на оръжие за постигане на цел, което също е много типично човешко поведение.

Какъв е и дали има проблем в тези две разиграни ситуации? Ако Gathering беше реална и в нея бяха поставени хора, победител щеше да стане този, който използва оръжието без да се притеснява и да се колебае дали би използвал агресия. AI обаче не изпитва вина, което го прави опасен противник.

Бихте ли се включили в тест човек срещу  AI? Аз, не.

Много впечатляващо е развитието на възможностите за учене на машините. Но накрая все пак става дума за нещо, което ние учим какво да прави, като малко дете. Ако го научим, че може да лъже и го научим да стреля, AI ще прави точно това. Следва моментът обаче, когато AI започне да мисли сам и да се учи сам. Тук би било интересно да разберем дали „първите 7 г.“ ще окажат своето влияние, или пък ще бъдат изтрити от по-развита мисъл.

Дотогава може би трябва да избягваме да даваме оръжие на AI.

Снимка: Pixabay

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *