Глобалната роботизация и развитието на изкуствения интелект засягат всички сфери на живота и, разбира се, представляват интерес за военните. За това какво ще се случи, ако невронните мрежи на различни държави се сблъскат в битка, пише Channelnewsasia.

Военните наричат ​​оръжия, базирани на изкуствен интелект, „смъртоносни“ и „автономни“ и, някои тайно, други открито, ги разработват. Дронове, автономни противопожарни системи и дори израелският Iron Dome все още са плахи опити за въвеждане на AI, роботика и полуавтономни бойни системи, защото същият Iron Dome, който може сам да разпознае заплаха и да сваля ракети, е чук, но не скалпел. И в армията искат бързо да видят редиците на бойци като "терминатори" или "универсални войници", които могат да действат в съответствие с бойната ситуация, незабавно вземайки хладни и компетентни решения. Същото важи и за всичко автономно, което дори и дистанционен оператор не трябва да управлява (какъвто е случаят с дроновете), се казва в статията.

Някои учени намират предимства в използването на AI в армията, различни от очевидното, което включва спасяването на живота на войници в собствената им армия. Роналд Аркин от Технологичния институт на Джорджия казва, че базираните на AI роботизирани системи ще бъдат много по-„човешки“ от хората, когато става въпрос за победа над враг: без садизъм, без жестокост, без отмъщение или необуздан гняв.

Учените от университета в Бристол са загрижени за риска сред цивилното население и прекъсването на преговорния процес, ако изкуственият интелект излезе извън контрол или се провали. Освен това те отбелязват голям проблем при обучението на AI, базиран на алгоритъма „приятел или враг“, когато става въпрос за живата сила на врага. И какво, ако AI ​​е обучен да реагира на вражески танк и той сгреши цивилна кола, преминаваща през контролно-пропускателен пункт вместо него?

Освен това, дори ако бъде подписан някакъв международен меморандум за забрана на въвеждането на AI в армиите по света, няма гаранция, че всички страни ще се съобразят с това правило. В края на краищата, както правилно твърдят експертите, договорът за неизползване на химически оръжия например не беше спазен от СССР - той го използва в Афганистан. Или когато става въпрос за такова на пръв поглед банално и логично желание за забрана на противопехотните мини, които в повечето случаи засягат само цивилни, то държави като САЩ, Русия и Китай не бързат да подпишат Отавския договор, въпреки че 122 страните го подписаха през 1997 г.

Връщайки се към темата за AI и оръжията, привържениците на тази симбиоза се фокусират върху правото на всяка държава да се защитава от агресия по всякакъв начин и върху факта, че AI е много по-умен, по-бърз и по-безпристрастен от хората.

Но вече неусетно навлязохме в ерата на изкуствения интелект в оръжията: дронове и ракети, които се насочват към целта по-точно от оператора, роботи-часови и т.н. Всичко това вече съществува и няма съмнение, че ще доживеем и до ерата на условните "терминатори" или "Скайнет". В края на краищата политиците винаги ще намерят вратичка в такива неясни формулировки като "автономни оръжия", "смъртоносни автономни оръжия" или "роботи убийци" ...

Авторите на статията казват, че ние с вас не е нужно да сме суперексперт в областта на AI, за да разберем колко опасна е подобна симбиоза. Те молят всеки, който чуе или прочете за използването на AI в армията, да се запита: колко оправдано и рисковано е това по отношение на спасяването на цивилни животи?

Превод: GlasNews