Изкуственият интелект вече не просто пише текстове и отговаря на въпроси – според учени той започва да „създава“ и несъществуващи научни изследвания, които могат да попаднат директно в медицинската практика.

Ново проучване разкрива тревожна тенденция: над 4000 цитата към напълно измислени биомедицински статии са били открити в научната литература. А още по-притеснителното е, че част от тези фалшиви източници вече могат да влияят на клиничните насоки, използвани от лекари по света.

Изследователите предупреждават, че броят на подобни измамни цитати е нараснал 12 пъти само за последните три години.

„Подобни изфабрикувани цитати могат да подкопаят клиничните насоки, на които здравните специалисти разчитат, когато предоставят медицински грижи“, предупреждава авторът на изследването Максим Топаз.

По думите му проблемът е много по-сериозен, отколкото изглежда на пръв поглед. След като веднъж фалшив цитат попадне в научна публикация, той може да бъде преписван, цитиран и използван от други учени, а впоследствие дори да се озове в официални медицински препоръки.

„Това означава, че лекарите могат да вземат решения за лечение въз основа на изследвания, които никога не са съществували“, обяснява Топаз.

Още по-тревожно е, че нито един от идентифицираните фалшиви цитати не е бил официално коригиран или оттеглен.

Според изследователите AI системите често „халюцинират“ научни източници – създават на пръв поглед напълно достоверни публикации, с реалистични заглавия, имена на учени и научен стил, които обаче не съществуват никъде.

Понякога изкуственият интелект дори използва имената на реални учени, но им приписва измислени изследвания. В други случаи генерира напълно фалшиви статии.

Самият Максим Топаз признава, че проблемът го е засегнал лично. Той разказва как AI инструмент е вмъкнал фалшив цитат в негова научна статия по време на редакция – и текстът е преминал през няколко нива на експертна проверка, преди грешката да бъде забелязана.

„Бях съкрушен. Ако това може да се случи на мен след 15 години работа с изкуствен интелект, може да се случи на всеки“, казва ученият.

Според експертите това вероятно е само „върхът на айсберга“, тъй като проблемът не засяга само медицината, а потенциално всички научни области, в които AI вече се използва за писане, редактиране и обработка на текстове.

А най-опасното е, че фалшивите научни цитати изглеждат напълно истински.