През 2016 г. Microsoft пусна чатбот с изкуствен интелект, наречен „Tay“, с цел да взаимодейства с потребителите на Twitter и да се учи от техните разговори, за да имитира непринудения стил на общуване на 19-годишна американка.
В рамките на 24 часа след пускането му уязвимост в приложението, използвана от злосторници, доведе до „безумно неподходящи и осъдителни думи и изображения“ (Microsoft). Моделите за обучение на данни позволяват на ИИ да улавя както положителни, така и отрицателни модели и взаимодействия, като са обект на предизвикателства, които са „колкото социални, толкова и технически“.
Microsoft не се отказа от стремежа си да използва ИИ за онлайн взаимодействия след провала на Tay. Вместо това тя удвои усилията си.
През 2023 г. чатбот с ИИ, базиран на модела GPT на OpenAI, наричащ себе си „Сидни“, направи обидни и неподходящи коментари при взаимодействие с колумниста на „Ню Йорк Таймс“ Кевин Роуз, в които Сидни заяви любовта си към автора, стана обсебващ и показа хаотично поведение: „Сидни се фиксира върху идеята да ми декларира любов и да ме накара да декларирам любовта си в замяна“. В крайна сметка, казва той, Сидни се превръща „от флирт в обсебващ преследвач“.
През изминалата година Google се препъна не веднъж, два пъти, а три пъти, когато се опита да използва изкуствен интелект по креативен начин. През февруари 2024 г. задвижваният от ИИ генератор на изображения, Gemini, създаде странни и обидни изображения като чернокожи нацисти, расово различни бащи основатели на САЩ, индиански викинги и женски образ на папата.
След това, през май, по време на годишната си конференция за разработчици I/O, Google преживя няколко казуса, включително функция за търсене, задвижвана от изкуствен интелект, която препоръча на потребителите да ядат камъни и да добавят лепило към пицата.
Ако такива технологични гиганти като Google и Microsoft могат да правят дигитални грешки, които водят до толкова далечна дезинформация и срам, как ние, обикновените хора, да избегнем подобни грешки? Въпреки високата цена на тези неуспехи, могат да се извлекат важни поуки, които да помогнат на другите да избегнат или сведат до минимум риска.
Ясно е, че ИИ има проблеми, които трябва да осъзнаем и да работим за тяхното избягване или отстраняване. Големите езикови модели (LLM) са усъвършенствани системи на ИИ, които могат да генерират текст и изображения, подобни на човешките, по надежден начин. Те са обучени върху огромни количества данни, за да научат модели и да разпознават връзки в употребата на езика. Но те не могат да различават фактите от измислиците.
LLM и системите за изкуствен интелект не са безпогрешни. Тези системи могат да засилят и затвърдят предубежденията, които може да се съдържат в данните от обучението им. Добър пример за това е генераторът на изображения на Google. Бързането с въвеждането на продукти твърде рано може да доведе до смущаващи грешки.
Системите с изкуствен интелект могат да бъдат уязвими и към манипулиране от страна на потребителите. Лошите винаги дебнат, готови и подготвени да използват системите – системи, подложени на халюцинации, произвеждащи фалшива или безсмислена информация, която може да се разпространи бързо, ако не се контролира.
Нашето взаимно предоверяване на изкуствения интелект без човешки надзор е игра на глупаци. Сляпото доверяване на резултатите от ИИ доведе до реални последици, което показва постоянната необходимост от човешка проверка и критично мислене.
Въпреки че са допуснати грешки и неправилни стъпки, е важно да се запази прозрачността и да се поеме отговорност, когато нещата се объркат. Доставчиците до голяма степен са прозрачни по отношение на проблемите, с които са се сблъскали, като се учат от грешките и използват опита си, за да обучават другите. Технологичните компании трябва да поемат отговорност за своите неуспехи. Тези системи се нуждаят от непрекъсната оценка и усъвършенстване, за да останат бдителни за възникващи проблеми и пристрастия.
Като потребители ние също трябва да бъдем бдителни. Необходимостта от развиване, усъвършенстване и подобряване на уменията за критично мислене изведнъж стана още по-ясно изразена в ерата на ИИ. Поставянето под въпрос и проверката на информация от множество достоверни източници, преди да се разчита на нея – или да се споделя – е необходима добра практика, която трябва да се култивира и упражнява особено сред служителите.
Технологичните решения, разбира се, могат да помогнат за идентифициране на пристрастия, грешки и потенциални манипулации. Използването на инструменти за откриване на съдържание с изкуствен интелект и цифрови водни знаци може да помогне за идентифицирането на синтетични медии. Ресурсите и услугите за проверка на фактите са свободно достъпни и трябва да се използват за проверка на нещата. Разбирането на начина на работа на системите с ИИ и на това, че измамите могат да се случат светкавично и без предупреждение; информирането за нововъзникващите технологии с ИИ и техните последици и ограничения може да сведе до минимум последствията от пристрастия и дезинформация. Винаги проверявайте два пъти, особено ако нещо изглежда твърде добро – или твърде лошо, за да е истина.
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.