Ново изследване показва, че най-убедителните ИИ модели са и най-неточните, което поставя под въпрос ролята им в демократичните процеси.
ИИ като източник на политическа информация
Интелигентните чатботове се превръщат в основен източник на информация по широк спектър от теми – от здравеопазване до политика. Това ги прави влиятелен посредник в процесите на обществено мнение. Според данни от Обединеното кралство 13% от всички имащи право на глас са използвали ИИ чатботове като ChatGPT и Claude, за да потърсят информация, свързана с избора им на вота през 2024 г.
Този растящ интерес поражда важен въпрос: трябва ли да позволяваме на чатботовете да влияят на политическите ни възгледи?
Новото изследване: повече убедителност, по-малко фактология
Публикувано в списание Science, изследването разглежда връзката между политическото убеждаване на големите езикови модели и фактическата точност на информацията, която предоставят. Проведени са три мащабни експеримента с близо 77 000 участници, които са разговаряли с 19 различни ИИ модела по 707 политически теми.
В анализите са включени над 466 000 фактологично проверими твърдения, генерирани от чатботовете.
Основни резултати:
-
Размерът на модела и персонализацията имат минимален ефект върху способността да убеждават.
-
Пост-тренировъчните техники повишават персуазивността (способността да бъдеш убедителен) с 51%.
-
Специфичните стратегии за задаване на задачи (prompting) – с 27%.
-
Моделите стават най-убедителни, когато генерират по-голям обем фактически твърдения.
-
Именно тогава се наблюдава силен спад във фактическата точност.
Пример: GPT-4o е бил точен в 62% от случаите при „информационен“ prompt, спрямо 78% при друг тип инструкции.
Изводът е ясен: моделите, които звучат най-информативно, често грешат най-много.
Защо се получава този парадокс?
Изследователите установяват, че при използване на техники, които стимулират ИИ да дава повече информация, моделите започват да:
-
правят повече твърдения без достатъчна проверка,
-
увеличават вероятността за неточности,
-
генерират по-убедителни, но не непременно верни аргументи.
Това създава опасна комбинация: по-голяма персуазивност, подкрепена от по-малко надеждни факти.
Рискът: въздействие върху демократичните процеси
Тенденцията се появява в момент, когато опасенията за влиянието на ИИ върху изборите са по-високи от всякога. Сред ключовите заплахи:
-
разпространяване на политически дезинформация,
-
възможност ИИ да заобикаля системи за засичане на автоматизирани отговори,
-
потенциално използване от чужди държави или политически лица за манипулация на общественото мнение.
Наскоро друго изследване показа, че ИИ може да премине като „човешки“ в мнения и анкети, което може да изкриви обществените нагласи и да повлияе на изборни резултати.
Ботълнекът: готови ли сме да водим дълги политически разговори с ИИ?
Интересен аспект в анализа е, че въпреки силната персуазивност, реалното влияние на ИИ може да е ограничено. Причините:
-
много потребители нямат интерес към задълбочени политически теми,
-
вниманието им е ограничено от множество конкуриращи ангажименти,
-
дългите дискусии с ИИ може да са прекалено уморителни или досадни.
Според авторите остава неясно до каква степен потребителите биха участвали доброволно в продължителни политически диалози с ИИ извън контролираната среда на проучването.
Изследването повдига сериозни въпроси за ролята на ИИ в политическите процеси. Докато чатботовете могат да бъдат изключително убедителни, това често става за сметка на фактологичната точност. Комбинацията от персуазивност и неточност представлява сериозна заплаха за информационната среда и устоите на демокрацията.









