Търсене
Close this search box.

И Рене Хаас изрази безпокойство за безопасността на ИИ

Главният изпълнителен директор на Arm Рене Хаас изрази загриженост, че хората в крайна сметка могат да загубят контрол над системите с изкуствен интелект (ИИ), ако не бъдат въведени достатъчно предпазни мерки или възможности за отмяна.

В разговор с Bloomberg Хаас призна, че се опасява, че в някакъв момент в бъдещето хората ще „загубят способността си“ да управляват машините.
Бързото ускоряване на развитието на генеративния ИИ през последните месеци породи опасения сред част от световния технологичен сектор.

През март редица ръководители от бранша, включително съоснователят на Apple Стив Вошняк и главният изпълнителен директор на Tesla Илон Мъск, подписаха отворено писмо, в което призоваха за шестмесечна пауза в обучението на системи за ИИ, по-мощни от GPT-4 на OpenAI.

В писмото се твърди, че „човешкият конкурентен интелект може да създаде дълбоки рискове за обществото и човечеството“, и се очертава списък на „минималното “ ниво на предпазни мерки, които трябва да бъдат приложени.

Тези предпазни мерки включват създаването на нови регулаторни органи, посветени на ИИ, надзор над най-напредналите системи за ИИ, отговорност за вреди, причинени от ИИ, и повече публично финансиране за технически изследвания на безопасността на ИИ.

Второто отворено писмо, публикувано от Центъра за безопасност на ИИ с далеч по-обтекаемо послание, беше подписано от известни имена като главния изпълнителен директор на OpenAI Сам Олтман, главния изпълнителен директор на Google DeepMind Демис Хасабис, главния изпълнителен директор на Anthropic Дарио Амодей и съоснователя на Microsoft Бил Гейтс.

„Намаляването на риска от изчезване от ИИ трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война“, се казва в писмото.

И двете писма предизвикаха известна критика, като критиците твърдяха, че писмата отклоняват вниманието от действителните краткосрочни вреди, които системите на ИИ вече нанасят на обществото, като се фокусират върху по-абстрактните, дългосрочни последици, които те могат да предизвикат.

Бързането за прилагане на генеративни модели на ИИ в обществото породи опасения относно потенциала за засилване на вече съществуващи предразсъдъци, засилване на социалното неравенство и дали използването на някои генеративни инструменти на ИИ може да наруши законите за интелектуална собственост (ИС) и авторското право.

Европейският съюз (ЕС) наскоро обяви, че е постигнал временно споразумение за собствена регулаторна рамка за системите на ИИ, като са въведени мерки за гарантиране на безопасността на прозрачността на моделите за създаване на „високо въздействие“ и ограниченията около използването на ИИ в системите за биометрично наблюдение.

Споразумението беше постигнато след продължителен период на преговори, забавен от опасенията на лидерите в индустрията, че иновациите могат да бъдат възпрепятствани от тромавата регулаторна бюрокрация.

„Най-много се притеснявам от това, че хората ще загубят способността си“, каза той пред изданието.

„Трябва да има някакъв контрол, някаква задна вратичка, някакъв начин, по който системата да бъде изключена.“

 

Източник: itpro.co.uk

Подобни публикации

21 април 2024

Как OpenAI и Microsoft събудиха заспал софтуере...

Само преди десетилетие най-големият технологичен звяр в света беше ...
20 април 2024

Готви се нова методика за удостоверяване на съо...

Актуализирането на методиката за удостоверяване на съответствието н...
20 април 2024

Критична уязвимост на Forminator за WordPress и...

Плъгинът Forminator за WordPress, използван в над 500 000 сайта, е ...
20 април 2024

Бандата "Медуза" нанася нов удар

Въпреки че общинската агенция уверява обществеността, че малцина са...
19 април 2024

Пробиха MITRE чрез нулевите дни на Ivanti

Корпорацията MITRE твърди, че подкрепяна от държавата хакерска груп...
19 април 2024

Замбия арестува 77 души в операция за киберпрес...

Компанията за фалшиви телефонни центрове извършва онлайн  и други и...
18 април 2024

Платформата за фишинг LabHost е закрита от прав...

LabHost, голяма платформа за фишинг като услуга, е била затворена к...
18 април 2024

Компания за управление на киберриска набра 21 м...

В сряда компанията за риск мениджмънт CyberSaint обяви, че е набрал...
Бъдете социални
Още по темата
21/04/2024

Как OpenAI и Microsoft събу...

Само преди десетилетие най-големият технологичен звяр...
06/04/2024

Abstract Security въвежда A...

Задвижваната от изкуствен интелект платформа за...
25/03/2024

ООН прие резолюция за гара...

В четвъртък Общото събрание одобри първата...
Последно добавени
21/04/2024

Как OpenAI и Microsoft събу...

Само преди десетилетие най-големият технологичен звяр...
20/04/2024

Готви се нова методика за у...

Актуализирането на методиката за удостоверяване на...
20/04/2024

Критична уязвимост на Formi...

Плъгинът Forminator за WordPress, използван в...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!