От дебюта на ChatGPT през 2022 г. генеративният ИИ навлезе стремително в работата, обучението и личния ни живот, ускорявайки научни изследвания, създаването на съдържание и редица други дейности. Вълната от ентусиазъм е напълно обяснима – технологията се разпространява дори по-бързо от интернет или персоналните компютри. Но, както при всяка нова технология, наред с ползите се крият и рискове, ако употребата ѝ остане без контрол.
Един от гласовете, които предупреждават за това, е Наташа Говендър-Ропер, ръководител „ИИ за финансови престъпления“ в Rabobank. В разговор за подкаста „Kia’s Next Big Drive“ тя коментира етиката на ИИ, опасностите от пристрастия и въпроса дали не прехвърляме собственото си мислене на машините.
Вашият мозък и генеративният ИИ
Изследване на MIT върху ефекта от използването на ChatGPT за писане на есета предизвика лавина от сензационни заглавия: „ИИ разрушава мозъка“ или „ChatGPT ни прави мързеливи и глупави“. Истината обаче е далеч по-сложна.
В проучването участват 54 студенти, разделени в три групи – едни използват ChatGPT, втори ползват Google без ИИ, а трети пишат без помощ. Докато работят, мозъчната им активност се следи чрез електроди. Резултатите: групата, работила без ИИ, показва най-високи нива на мозъчна свързаност, докато ChatGPT-потребителите – най-ниски. Причината? Те са „карали на автопилот“.
Когато ролите се разменят, студентите, писали сами, подобряват качеството си чрез ChatGPT, докато обратната група се затруднява. В крайна сметка изследването не доказва „разрушаване на мозъка“, а показва, че прекомерното разчитане на LLM намалява когнитивното усилие. С други думи – съкращаваме мисловния процес.
Опасност за критичното мислене
Учените от Vrije Universiteit Amsterdam предупреждават, че прекаленото доверие в генеративния ИИ може да отслаби критичното мислене. Тонът на авторитет и увереност в отговорите му може да ни направи по-малко склонни да търсим алтернативни гледни точки или да поставяме под въпрос скритите предпоставки.
Това води до по-дълбок проблем – ако не поставяме под съмнение изходните данни, ИИ може да възпроизвежда пристрастия и остарели социални норми. Решението не е само технологично, а изисква критичен подход и ясно дефинирани принципи за това какво считаме за „пристрастие“.
Заключения
От изследването могат да се изведат две ясни поуки:
-
Необходима е повече наука за това как да интегрираме LLM в образованието.
-
Нужно е да останем критични – както към медиите, така и към самия генеративен ИИ.
Както отбелязва Наташа Говендър-Ропер, „пристрастие“ няма универсално значение – това е въпрос на избор и ценности. Историческите данни, върху които тренираме моделите, не се променят, но обществото – да. Ако искаме справедливо и балансирано бъдеще, трябва да оспорваме и хората, и машините.








