Макар и това да не се случи скоро, важно е да се замислим за последствията още сега, смята философът Ник Бостром, според него машинният свръхразум ще е вероятно последното изобретение на човечеството.
В средата на 20-ти век за изкуствен интелект се смяташе въвеждането на команди в кутия. Резултатите се ограничаваха до това, което бъде въведено от човека. Днес разработките са съсредоточени върху това как машините да бъдат направени да се обучават сами.
Засега ние не знаем как да реализираме в машините тези алгоритмични прийоми, които използва мозъка. Но се смята, че само въпрос на време и това да бъде открито.
След много години тежка работа, множество инвестиции ние получаваме изкуствен интелект на ниво шимпанзе. След това, след още много години тежък труд, ние ще достигнем до създаването на машинен интелект, който е ниво дете.
И няколко мига по-късно ще се окажем и далеч над нивото на Айнщайн. Влакът няма да се спре на станцията „Човечество“. По-скоро той ще профучи край нея и ще продължи по-нататък.
Помислете върху това – машинният свръхразум е възможно последното изобретение на човечеството. Машините ще бъдат по-добри в изобретенията, отколкото ние, и те ще ги извършват с цифрова скорост.
Помислете за всички невероятни технологии, които хората могат да открият, имайки прекалено много свободно време – лекарство срещу стареенето, колонизация на космоса, възпроизвеждащи се сами нанороботи или зареждане на съзнанието в компютри.
Всичко това би спомогнало за откриването на свръхразум и е възможно това да стане доста бързо. Суперинтелект с такава технологична зрялост би бил прекалено влиятелен. Нашето бъдеще ще се определя от неговите предпочитания.
В такъв случай интересен би станал въпроса какви са тези предпочитания? За да разберете това, мислете за развитието на интелекта като за движение към голяма оптимизация.
Суперинтелектът ще се стреми да сведе решението на всички проблеми до набор от конфигурации. В такъв случай неговите цели и средства за тяхното постигане не винаги ще съответстват на нашата етика.
Да предположим, ние ще поставим на изкуствения интелект цел – да реши труден математически проблем. В определен момент той реши, че най-оптималният способ да тго реши, е да преобразува планетата в гигантски компютър, за да подобри своите мисловни способности.
Тъй като ние не можем да одобрим подобен вариант, свръхразумът може да реши, че хората са пречка по пътя на решаването на проблема.
Разбира се, това са измислени примери. Но основната идея е следната – създавайки мощен процес на оптимизация за постигане на цели, следва да се убедим, че определените цели включват всичко, което ни вълнува.
По-просто казано, разработвайки свръхразумен изкуствен интелект, е важно да сме убедени, че е на наша страна и споделя нашите ценности.
Ние не трябва да се уповаваме на това, че ще се налага да държим сврръхразумния джин заключен. Рано или късно той ще излезе навън. Вместо да търсим начини да контролираме създадения от нас интелект, е необходимо да го настроим и на това познание, на което ние държим.
Тогава в своите разчети той ще има предвид и това, харесва ли ни резултатът от неговата дейност.
Ник Бостром е шведски философ, директор на Института за бъдещето на човечеството към Оксфордския университет във Великобритания.