Експерти от Оксфордския университет и Deepmind (собственост на Google) заявиха, че изкуственият интелект може да унищожи човечеството. За това пише Vice, цитирайки статия в научното списание AI Magazine.

Generative Adversarial Networks (или накратко GAN) се считат за най-успешните модели на изкуствен интелект днес. Те се състоят от две части, едната от които генерира изображение или текст въз основа на наличните данни, а втората част оценява случилото се и отхвърля некачествената работа - по този начин проектът се преработва, докато излезе нещо добро. Изследователите предполагат, че в бъдеще много "интелигентен" изкуствен интелект може да бъде принуден да разработи измамни схеми, които могат да навредят на голям брой хора.

„При условията, които идентифицирахме, нашето заключение е по-убедително от заключението на всяка предишна публикация – екзистенциална катастрофа е не само възможна, но и вероятна“, коментира Майк Коен, съавтор на статията от Deepmind, в Twitter.

В интервю за Vice той обясни, че ресурсите в нашия свят са ограничени, така че има конкуренция. Усъвършенстваният изкуствен интелект ще има "ненаситен апетит" за енергия, който ще се нуждае от все повече и повече с времето. В един момент той ще поиска да елиминира потенциални заплахи и да грабне цялата налична енергия, за да изпълни целта или да получи наградата, предвидена от програмата.

Когато е свързан с интернет, изкуственият интелект също ще може да създава огромен брой невидими и неконтролирани виртуални асистенти. Един от тях е доста способен да купи, открадне или дори да създаде робот, който да замени човешкия оператор и да осигури висока награда на първоначалния агент. Според изследователите, за да не получи силен конкурент в борбата за оцеляване на Земята, човечеството трябва да развива технологиите за изкуствен интелект много бавно, докато не се научи да ги контролира.

„Загубата на този мач ще бъде фатална“, подчертават авторите на статията.

По-рано бившият изпълнителен директор на Google Ерик Шмид сравни изкуствения интелект с ядрени оръжия. Според него е време човечеството да помисли за мерки за ограничаване на подобни технологии.

Беше съобщено също, че невронната мрежа Megatron-Turing NLG предупреждава за опасностите от ИИ. Както се казва в езиковия модел, машините никога няма да бъдат обременени с морал, така че те ще могат да действат както за доброто, така и за вредата на хората.

Превод: GlasNews