Независимо дали става въпрос за писане на имейл или планиране на почивка, около една четвърт от американците казват, че взаимодействат с изкуствен интелект по няколко пъти на ден, докато други 28% казват, че го използват около веднъж дневно.  

Но много хора може да не са наясно с въздействието на търсенията си върху околната среда.

Заявка, направена чрез ChatGPT, например, консумира 10 пъти повече електроенергия от търсене в Google, твърдят данните на Международната агенция по енергетика.

Освен това, центровете за данни, които са от съществено значение за захранването на модели с изкуствен интелект, са представлявали 4,4% от цялата консумирана електроенергия в САЩ през 2023 г. До 2028 г. се очаква те да консумират приблизително 6,7 до 12% от електроенергията на страната, като вероятно оттам нататък броят им само ще се увеличава по същия начин както се увеличава жроят на центровете за данни в световен мащаб - от 500 000 през 2012 г. до над 8 милиона към септември 2024 г.  

Ново проучване, публикувано във Frontiers, има за цел да привлече повече внимание към проблема. Изследователите анализираха броя на „токените“ – най-малките единици данни, които езиковият модел използва за обработка и генериране на текст – необходими за генериране на отговори, и установиха, че някои команди към изкуствения интелект могат да отделят до 50 пъти повече емисии CO2 от други.

Различните модели на изкуствен интелект използват различен брой параметри; тези с повече параметри често се представят по-добре.

Проучването изследва 14 големи езикови модела (LLM), вариращи от седем до 72 милиарда параметъра, като им задава едни и същи 1000 сравнителни въпроса в редица теми. Параметрите са вътрешните променливи, които моделът научава по време на обучението и след това използва, за да генерира резултати. 

Моделите, базирани на разсъждения, които са способни да изпълняват по-сложни задачи, са създавали средно 543,5 „мислещи“ токена на въпрос (това са допълнителни единици данни, които LLM-ите, базирани на разсъждения, генерират, преди да дадат отговор).

Това е в сравнение с по-кратки модели, които изискват само 37,7 токена на въпрос. Колкото повече токени са използвани, толкова по-високи са емисиите – независимо дали отговорът е бил верен или не.  

Темата е повлияла на количеството произведени емисии. Въпроси по прости теми, като например историята, са произвели до шест пъти по-малко емисии от предмети като алгебрата или философия, които са изисквали продължителни процеси на разсъждение.

В момента много модели имат присъщ „компромис между точност и устойчивост“, казват изследователите. Моделът, който изследователите сметнаха за най-точен, моделът Cogito, базиран на разсъждения, генерира три пъти повече емисии CO2 от модели с подобен размер, които генерират по-кратки отговори.

Следователно, присъщото предизвикателство в настоящия пейзаж на моделите с изкуствен интелект е да се оптимизира както енергийната ефективност, така и точността. „Никой от моделите, които поддържаха емисиите под 500 грама еквивалент на CO2, не постигна точност над 80% при правилно отговаряне на 1000 въпроса“, се каза в прессъобщение първият автор на изследването - Максимилиан Даунер, изследовател в Университета по приложни науки Hochschule München.

 

Не само видовете зададени въпроси или степента на точност на отговора, но и самите модели могат да доведат до разликата в емисиите.

Изследователите установиха, че някои езикови модели произвеждат повече емисии от други. За да отговори DeepSeek R1 (70 милиарда параметъра) на 600 000 въпроса, това би създало емисии на CO2, равни на тези на двупосочен полет от Лондон до Ню Йорк, докато Qwen 2.5 (72 милиарда параметъра) може да отговори на над три пъти повече въпроси – около 1,9 милиона – с подобни нива на точност и същия брой емисии.

Изследователите се надяват, че потребителите може да са по-съзнателни за въздействието върху околната среда от използването на изкуствен интелект. „Ако потребителите знаят точната цена на CO₂ от генерираните от изкуствения интелект продукти, като например небрежно превръщане в екшън фигурка“, каза Даунър, „те може да са по-селективни и внимателни кога и как използват тези технологии.“