В наши дни развитието на изкуствения интелект (AI) напредва с бързи темпове. Учените смятат, че е много трудно да се предвиди скоростта на еволюцията му. В същото време AI може да се превърне в страхотен филтър за земляните. И най-вероятно това вече се е случило с други цивилизации в космоса. Ето защо все още не можем да ги открием.

Новото изследване е публикувано в списание Acta Astronautica.

Едно възможно решение на известния парадокс на Ферми, тоест ако извънземните съществуват, защо не сме ги намерили, е хипотезата, наречена Великият филтър. Това е хипотетично събитие или ситуация, която пречи на интелигентния живот да се превърне в междузвезден вид и дори води до смъртта му. Това може да е ядрена война, астероиден удар, глобална пандемия и други подобни бедствия.

Авторите на новото изследване смятат, че бързото развитие на AI ще доведе до появата на изкуствения суперинтелект (ASI) и той ще се превърне във Великия филтър. Учените смятат, че изкуственият интелект може да представлява сериозна заплаха за бъдещото развитие не само на нашата цивилизация, но и на всички цивилизации в космоса.

космически AIЦял екран
 Снимка: Universe Today

Според хипотезата за Великия филтър възниква катастрофална ситуация дори преди една напреднала цивилизация да може да засели други планети в своята система, още по-малко да стане междузвезден вид. Типичната продължителност на живота на такава технологично напреднала цивилизация е по-малко от 200 години. Ако това е вярно, това може да обясни защо хората все още не са открили доказателства за извънземен разум. Това също предполага, че човечеството също има само 200 години бързо технологично развитие, което ще бъде спряно от ASI. Учените вярват, че в близко бъдеще ASI ще започне да взема решения вместо хората и това е голяма опасност за нас.

Известният физик Стивън Хокинг предупреди, че изкуственият интелект може да означава края на човечеството, ако се развива независимо. ИИ ще се подобри и ще се самовъзпроизвежда и това ще бъде нова форма на живот, която е по-добра от хората, каза ученият. Авторите на изследването смятат, че вероятността ASI да излезе извън контрол е много висока и трябва да помислим сега как да предотвратим това.

Марсианска колонияЦял екран
Ако хората успеят да се превърнат в междупланетен вид преди появата на ASI, тогава те ще диверсифицират стратегиите си за оцеляване и може да успеят да избегнат извън контрол ИИ, пред който е изправена цивилизацията на планетата. Снимка: Universe Today

Ако ASI може потенциално да унищожи човечеството, тогава това може да се случи с извънземни цивилизации, казват учените. Факт е, че за да съществува ASI, не е необходим биологичният живот, който го е създал. Учените смятат, че изкуственият суперинтелект може да създаде смъртоносен вирус или да започне ядрена война.

И в същото време авторите на изследването смятат, че подобно развитие на събитията не е неизбежно. Ако хората успеят да се превърнат в междупланетен вид преди появата на ASI, тогава те ще диверсифицират стратегиите си за оцеляване и може да успеят да избегнат извън контрол ИИ, пред който е изправена цивилизацията на една планета. Ако една от планетите, които хората на бъдещето ще заемат, не може да преживее катастрофата, създадена от ASI, тогава хората на други планети ще оцелеят.

Но основният проблем е, че развитието на изкуствения интелект се ускорява, докато опитите на хората да станат мултипланетарен вид не се ускоряват. Според учените в момента AI работи в границите, определени от хората. Но не е известно кога AI може да стане ASI и дали изобщо ще може да направи това. Но тази възможност не може да бъде пренебрегната.

 Превод: GlasNews