Търсене
Close this search box.

През 2016 г. Microsoft пусна чатбот с изкуствен интелект, наречен „Tay“, с цел да взаимодейства с потребителите на Twitter и да се учи от техните разговори, за да имитира непринудения стил на общуване на 19-годишна американка.

В рамките на 24 часа след пускането му уязвимост в приложението, използвана от злосторници, доведе до „безумно неподходящи и осъдителни думи и изображения“ (Microsoft). Моделите за обучение на данни позволяват на ИИ да улавя както положителни, така и отрицателни модели и взаимодействия, като са обект на предизвикателства, които са „колкото социални, толкова и технически“.

Microsoft не се отказа от стремежа си да използва ИИ за онлайн взаимодействия след провала на Tay. Вместо това тя удвои усилията си.

От Тау до Сидни

През 2023 г. чатбот с ИИ, базиран на модела GPT на OpenAI, наричащ себе си „Сидни“, направи обидни и неподходящи коментари при взаимодействие с колумниста на „Ню Йорк Таймс“ Кевин Роуз, в които Сидни заяви любовта си към автора, стана обсебващ и показа хаотично поведение: „Сидни се фиксира върху идеята да ми декларира любов и да ме накара да декларирам любовта си в замяна“. В крайна сметка, казва той, Сидни се превръща „от флирт в обсебващ преследвач“.

През изминалата година Google се препъна не веднъж, два пъти, а три пъти, когато се опита да използва изкуствен интелект по креативен начин. През февруари 2024 г. задвижваният от ИИ генератор на изображения, Gemini, създаде странни и обидни изображения като чернокожи нацисти, расово различни бащи основатели на САЩ, индиански викинги и женски образ на папата.

След това, през май, по време на годишната си конференция за разработчици I/O, Google преживя няколко казуса, включително функция за търсене, задвижвана от изкуствен интелект, която препоръча на потребителите да ядат камъни и да добавят лепило към пицата.

Ако такива технологични гиганти като Google и Microsoft могат да правят дигитални грешки, които водят до толкова далечна дезинформация и срам, как ние, обикновените хора, да избегнем подобни грешки? Въпреки високата цена на тези неуспехи, могат да се извлекат важни поуки, които да помогнат на другите да избегнат или сведат до минимум риска.

Научени уроци

Ясно е, че ИИ има проблеми, които трябва да осъзнаем и да работим за тяхното избягване или отстраняване. Големите езикови модели (LLM) са усъвършенствани системи на ИИ, които могат да генерират текст и изображения, подобни на човешките, по надежден начин. Те са обучени върху огромни количества данни, за да научат модели и да разпознават връзки в употребата на езика. Но те не могат да различават фактите от измислиците.

LLM и системите за изкуствен интелект не са безпогрешни. Тези системи могат да засилят и затвърдят предубежденията, които може да се съдържат в данните от обучението им. Добър пример за това е генераторът на изображения на Google. Бързането с въвеждането на продукти твърде рано може да доведе до смущаващи грешки.

Системите с изкуствен интелект могат да бъдат уязвими и към манипулиране от страна на потребителите. Лошите  винаги дебнат, готови и подготвени да използват системите – системи, подложени на халюцинации, произвеждащи фалшива или безсмислена информация, която може да се разпространи бързо, ако не се контролира.

Нашето взаимно предоверяване на изкуствения интелект без човешки надзор е игра на глупаци. Сляпото доверяване на резултатите от ИИ доведе до реални последици, което показва постоянната необходимост от човешка проверка и критично мислене.

Прозрачност и отчетност

Въпреки че са допуснати грешки и неправилни стъпки, е важно да се запази прозрачността и да се поеме отговорност, когато нещата се объркат. Доставчиците до голяма степен са прозрачни по отношение на проблемите, с които са се сблъскали, като се учат от грешките и използват опита си, за да обучават другите. Технологичните компании трябва да поемат отговорност за своите неуспехи. Тези системи се нуждаят от непрекъсната оценка и усъвършенстване, за да останат бдителни за възникващи проблеми и пристрастия.

Като потребители ние също трябва да бъдем бдителни. Необходимостта от развиване, усъвършенстване и подобряване на уменията за критично мислене изведнъж стана още по-ясно изразена в ерата на ИИ. Поставянето под въпрос и проверката на информация от множество достоверни източници, преди да се разчита на нея – или да се споделя – е необходима добра практика, която трябва да се култивира и упражнява особено сред служителите.

Технологичните решения, разбира се, могат да помогнат за идентифициране на пристрастия, грешки и потенциални манипулации. Използването на инструменти за откриване на съдържание с изкуствен интелект и цифрови водни знаци може да помогне за идентифицирането на синтетични медии. Ресурсите и услугите за проверка на фактите са свободно достъпни и трябва да се използват за проверка на нещата. Разбирането на начина на работа на системите с ИИ и на това, че измамите могат да се случат светкавично и без предупреждение; информирането за нововъзникващите технологии с ИИ и техните последици и ограничения може да сведе до минимум последствията от пристрастия и дезинформация. Винаги проверявайте два пъти, особено ако нещо изглежда твърде добро – или твърде лошо, за да е истина.

 

Източник: По материали от Интернет

Подобни публикации

5 октомври 2024

Сривът на киберфирмата на елита от националнaта...

Сривът на IronNet: Някои твърдят, че фирмата се е сринала отчасти з...
5 октомври 2024

Рансъмуерът удря критичната инфраструктура, а р...

Финансовото въздействие на кибератака, насочена към киберфизична си...
4 октомври 2024

Русия арестува 96 души, свързани с прекъснати о...

Тази седмица руските власти обявиха, че са арестували 96 души по по...
4 октомври 2024

Използвана уязвимост на Ivanti EPM

Тази седмица Ivanti и американската агенция за киберсигурност CISA ...
4 октомври 2024

Холандското правителство обвинява АРТ за хакван...

Министърът на правосъдието заяви пред депутатите, че кибератаката, ...
3 октомври 2024

Криптопортфейли, насочени чрез пакети за Python...

Потребителите на популярни портфейли за криптовалута са били обект ...
Бъдете социални
Още по темата
03/10/2024

Microsoft представя Copilot...

Във вторник Microsoft представи нов инструмент...
30/09/2024

Калифорния наложи вето върх...

В неделя губернаторът на Калифорния Гавин...
23/09/2024

LinkedIn адресира събиранет...

Компанията обяви актуализация на своята политика...
Последно добавени
05/10/2024

Сривът на киберфирмата на е...

Сривът на IronNet: Някои твърдят, че...
05/10/2024

Рансъмуерът удря критичната...

Финансовото въздействие на кибератака, насочена към...
04/10/2024

Русия арестува 96 души, свъ...

Тази седмица руските власти обявиха, че...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!