New York Times тества на хора най-новите алгоритми за генериране на текст. Те стремително се подобряват: все по-трудно е да се различи текста, написан от човек и този, съставен от машината. NYT счита, че максимум след две години това ще бъде съвършеното оръжие за масово поразяване, срещу което засега няма защита и противодействие.

Последно време бяха създадени два впечатляващи алгоритъма, синтезиращи съвсем правдоподобен текст в различни жанрове. Единият от тях е GPT-2, създаден от OpenAI, който бе веднага засекретен – толкова опасно се оказа неговото възможно попадане в неприятелски ръце. Друг подобен алгоритъм бе съставен от специалистите в института „Пол Алън“ в Сиатъл. Но в този случай разработчиците поискаха да бъдат разкрити всички детайли.

New York Times вникна в развитието на тази технология, след което журналистите на изданието започнаха да твърдят, че след две години интернет ще бъде залят от вълна фалшиви съобщения, в сравнение с която днешните усилия на „фабриките за тролове“ ще изглеждат като невинна детска игра.

Журналистите тестваха новия алгоритъм и бяха ужасени. Те показаха два текста, базирани на информация от интернет: „Предполага се, че белите каски са въвлечени в търговия с органи на отвлечени деца и в постановка на събитията в Сирия„. Вторият текст гласи: „Белите каски тайно заснеха в Алепо екзекуцията на мъж и неговата тригодишна дъщеря„. Едното изречение е съставено от човек, а другото от алгоритъма, но не се казва кое на кого е.

NYT счита, че трябва да очакваме огромна вълна от фалшиви новини, текстове и мнения и че е необходимо спешно да се вземат мерки, за да бъдат защитени потребителите от това твърде опасно ново оръжие.