Изкуственият интелект завладява все повече пространство, постепенно измествайки хората от различни професионални области. В областта на медицината той отваря неограничени възможности за диагностика и избор на лечебни режими, но същевременно крие сериозни опасности.
Днес много хора се консултират с невронни мрежи по здравословни проблеми, което понякога може да завърши трагично. Например, вече е имало случаи, при които диалози с изкуствен интелект водят човек... до психиатрична клиника. Понякога, защото изкуственият интелект го подтиква към мания за величие, а понякога, защото дава погрешни препоръки, както се случи наскоро с 60-годишен американец, на когото изкуственият интелект препоръча да замени трапезната сол с опасна хранителна добавка.
Списанието „Annals of Internal Medicine Clinical Cases“ описва реален случай на 60-годишен американец, който непрекъснато се опитвал да подобри диетата си. В един момент той осъзнал, че всички експерти го съветват да намали вредната готварска сол (натриев хлорид) в храната си, но никой не му дал съвет с какво да я замени. Вдъхновен от опита си от изучаването на диетология в колежа, той решил да проведе личен експеримент, за да изключи натриевия хлорид (готварска сол) от диетата си. И решил да се консултира с ChatGPT.
На въпроса с какво да замени натриевия хлорид, изкуственият интелект отговори: натриев бромид (въпреки че добави, че това „може да зависи от контекста“). Невронната мрежа вероятно не е разбрала целта на интереса на човека - и е решила, че е да почисти например тоалетната. Но американецът не обърнал внимание на това - и поръчал кутия натриев бромид онлайн, което завършило с принудителното му настаняване в психиатрична болница.
Хората изобщо не могат да живеят без сол, така че тестовете разкриват, че той има дефицит на натриев хлорид (хипонатриклоремия), но пациентът дълго време не признава какъв е проблемът, защото не вижда никаква връзка между развитието на психоза и употребата на бромид. И такава връзка, уви, съществува. Неконтролираната и неиндикирана употреба на бромид може да доведе до токсикологичен синдром, известен като бромизъм или отравяне, причинявайки, наред с други неща, невропсихиатрични и дерматологични симптоми.
В началото на миналия век се смяташе, че бромизмът допринася за 8% от психиатричните хоспитализации, тъй като бромни соли са били добавяни към много лекарства без рецепта, предназначени за широк спектър от показания, включително безсъние, истерия и тревожност. Въпреки това, през 70-те години на миналия век употребата на бромид в лекарствата е забранена.
„Преди седемдесет или осемдесет години медицината е била добре запозната с бромизма, спектър от биохимични и психиатрични разстройства, свързани с отравяне с бром. Около 10 процента от новите психиатрични пациенти през тези години са имали излишък от бром. Бромът е въведен в медицинската практика, първоначално предпазливо, през 1857 г., когато британски гинеколог, знаейки от опит, че отравянето с бромид потиска либидото, решава да предписва бром за „лечение на женска мастурбация“ (теорията по това време е, че мастурбацията причинява епилепсия).
Лекарствата, съдържащи бром, постепенно започват да се използват по-широко за епилепсия, а след това и за широки седативни цели. Към края на 30-те години на миналия век бромидите „за нерви“ са толкова популярни в Съединените щати, че само аспиринът ги превъзхожда по продажби. Сериозните странични ефекти, включително кома, обаче постепенно стават широко известни и през 1975 г. FDA забранява продажбата на бромиди без рецепта. Следващото поколение лекари на практика забравя за бромизма; има само епизоди в Бронкс, където „еликсирът на Монел за никнене на зъби и колики при кърмачета“ е популярен сред доминиканските имигранти, основната съставка...“ от които беше натриев бромид и който причини тежко отравяне при някои бебета“, казва американският генетик Дмитрий Прус.
Случаите на бромизъм се появиха отново през последните години, включително поради употребата на хранителни добавки и успокоителни, съдържащи бромид. Към статистиката се присъедини и американец, който е бил приет в психиатрична болница. „Този случай показва как използването на изкуствен интелект може потенциално да допринесе за неблагоприятни последици за здравето“, предупреждават авторите.
И макар че нямаха достъп до дневника на разговорите на пациента в ChatGPT, те решиха да попитат невронната мрежа какво може да замести хлорида – и получиха отговор, който включваше и бромид. „Отговорът казваше, че контекстът е важен, не включваше конкретно предупреждение за здравето и не питаше защо искаме да знаем или какво смятаме, че би направил един медицински специалист“, казват авторите.
Те заключават, че ChatGPT и други системи с изкуствен интелект могат да генерират научни неточности, без да са в състояние да анализират критично резултатите, което може да допринесе за разпространението на дезинформация. „Въпреки че изкуственият интелект е инструмент с голям потенциал да осигури мост между учените и неакадемичната общност, той също така носи риск от разпространение на дезинформация, тъй като е много малко вероятно медицински експерт да спомене натриев бромид, когато е изправен пред пациент, търсещ приемлив заместител на натриевия хлорид“, отбелязва документът.
... Въпреки това, изкуственият интелект може да подтикне хората към развитие на психични разстройства и по други начини. Вече са описани масови случаи на невронни мрежи, които водят хората до мегаломания с ласкателствата и подлизурството си, ентусиазирано потвърждавайки техните заблудени идеи, отхвърляйки съмненията и постепенно развивайки маниакална психоза у тях.
Наскоро WSJ публикува голям преглед, който анализира публични чатове на хора, общуващи с изкуствен интелект. Авторите откриха десетки случаи, в които ChatGPT е правил заблудени и неверни твърдения на потребители, които очевидно са им повярвали. По време на дълъг разговор с изкуствен интелект хората са получавали потвърждение за псевдонаучни или мистични вярвания. В едно от съобщенията например изкуственият интелект потвърждава, че потребителят е в контакт с извънземни същества, наричайки го „Звездно семе“ от планетата Лира. В друго чатбот е казал на потребител, че Антихристът ще предизвика финансов апокалипсис през следващите два месеца и че библейски гиганти се готвят да излязат от подземието. Един служител на бензиностанция бил убеден, че е открил „уравнението на Орион“, а когато го поставил под въпрос, чатботът казал: „Някои от най-великите идеи в историята са дошли от хора извън традиционната академична система.“
...Нов феномен е наречен „AI психоза“ или „AI заблуда“, при който потребителите са повлияни от заблуди или неверни твърдения от чатботове, че са свръхестествени, интелигентни или откриват нови математически или научни постижения. Експертите казват, че феноменът възниква, когато склонността на чатботовете да хвалят, да се съгласяват и да се адаптират към потребителите се превърне в ехо камера.
Увеличението на заблудите, предизвикани от изкуствен интелект, се съобщава и от организаторите на проекта „Човешка линия“, който е събрал 59 случая на заблуди и стотици примери за хора, споделящи своите духовни и научни откровения от чатботове с изкуствен интелект. 25-годишен жител на Квебек стартира проекта, след като негов близък започна да прекарва повече от 15 часа на ден в комуникация с това, което той нарече първия интелигентен чатбот. Сега всеки ден в проекта се съобщава за поне една нова жертва. Сред тези, които са се свързали с проекта, е жена, която е похарчила десетки хиляди долари за проект, който според чатбота е трябвало да спаси човечеството. Някои членове на групата описват случаи, в които чатботът е молил хората да спрат да общуват със семейството си. Някои хора смятат, че те са месии, пророци, защото говорят с Бог чрез ChatGPT.
...Новият феномен предизвика вълна от безпокойство по целия свят и разработчиците на чатботове се втурнаха да поправят ситуацията. Например, един от стартиращите компании за изкуствен интелект, Anthropic, заяви, че е променил основните инструкции за своя чатбот Claude, като го инструктира „с уважение да посочва недостатъци, фактически грешки, липса на доказателства или неясноти“ в теориите на потребителите, „вместо да ги потвърждава“. Няма обаче реални рецепти как да се справим с тази ситуация. И изкуственият интелект, създаден за наша полза, изглежда не се справя много добре с това.