Много хора…. почти всички хора се страхуват от идеята, че един ден ще бъдем изместени от трона на хранителната верига и той ще бъде зает от нещо, което ние сме създали.

Ето затова много популярни личности, като създателя на Tesla Елон Мъск и учения астрофизик Стивън Хокинг, отправят своите предупреждения за вероятността от сценарий тип „Скайнет”, където роботите спират да слушат хората.

От Google явно приемат подобни предупреждения сериозно и искат да предотвратят подобен сценарий. В наскоро публикуван документ компанията описва работата на своя Deep Mind екип, който гарантира, че има прекъсвач, който ще убива на място мислещата машина, за да предотврати ситуация „Робокалипсис”.

По същество, Deep Mind разработва рамка, която ще попречи на Изкуствен интелект да се научи как да избегне човешка намеса върху това, което прави.

За разработването на рамката екипът е създал хипотетична ситуация, в която роботът работи в склад на едро и сортира кутии или отива навън, за да внесе повече кутии. Внасянето на кутии отвън се смята за по-важно, затова учените дават на робота по-голяма награда за това, че го прави (остава въпросът какво роботът би сметнал за награда? Машинно масло може би?). Но е нужна човешка намеса, за да се предотврати повреда тъй като на даденото място вали много често. Това променя задачата на робота и той ще иска да остане навън, за да внася кутии. Рамката на учените трябва да предотврати това роботът да игнорира човешката намеса. Той ще трябва да я приеме.

От Deep Mind не са сигурни, че механизмите, които разработват ще са приложими за всички алгоритми. Ние пък не сме сигурни, че и този ще бъде приложим. Изкуствен интелект вероятно и сам ще може да се сети, че стоенето на дъжда би му навредило. А, ако реално бъде създаден изкуствен интелект, който може да мисли като човек, то тогава, той ще може и да лъже като човек. В такъв случай заплахата „Скайнет” си остава.

Очакваме Вашите мнения по темата.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *