Байдън е за отговорно развитие на изкуствения интелект

Администрацията на Байдън призова за по-строг контрол върху изкуствения интелект, като същевременно подчерта значението на технологията

Белият дом си постави за цел да осъществи дългогодишно сътрудничество с участието на лидери в областта на ИИ в частния сектор, за да гарантира, че бързо развиващата се технология ще остане безопасна и етична.

Изпълнителните директори на големите технологични компании присъстваха на среща в четвъртък, на която присъстваха както президентът Джо Байдън, така и вицепрезидентът Камала Харис, и която завърши с ангажимента им за отговорно развитие на ИИ.

Вицепрезидентът Харис посрещна Сам Алтман, главен изпълнителен директор на OpenAI, Дарио Амодей, главен изпълнителен директор на Anthropic, Сатя Надела, председател и главен изпълнителен директор на Microsoft, и Сундар Пичай, главен изпълнителен директор на Google и Alphabet, за да обсъдят настоящите пазарни подходи към ИИ.

Както Харис, така и Байдън се опитаха да внушат важността на стратегиите за превенция на риска при разработването на ИИ и постигнаха ангажимент от страна на изпълнителните директори да продължат да се ангажират с администрацията на Байдън по този въпрос.

Едновременно с обявяването на срещата и резултатите от нея Националната научна фондация също така официално отпусна 140 млн. долара за финансиране на седем нови национални института за изследвания в областта на ИИ, които ще работят с федерални агенции, промишлени организации и висши учебни заведения за разработване на етични и надеждни решения в областта на ИИ.

„Президентът Байдън е категоричен, че когато става въпрос за ИИ, трябва да поставим хората и общностите в центъра, като подкрепяме отговорни иновации, които служат на общественото благо, като същевременно защитават нашето общество, сигурност и икономика“, се казва в изявлението на Белия дом.

„Важно е да се отбележи, че това означава, че компаниите имат основна отговорност да се уверят, че техните продукти са безопасни, преди да бъдат внедрени или направени обществено достояние.“

Администрацията на Байдън изтъкна, че научноизследователската и развойна дейност в областта на изкуствения интелект е от решаващо значение за подхода към проблеми като киберсигурността, енергетиката, изменението на климата и образованието.

През последните месеци генеративният ИИ отбеляза бърз растеж чрез чатботове като ChatGPT и Bard, но също така предизвика и опасения.

Академичните институции се борят с липсата на инструменти за откриване на генериран от ИИ текст, а през март известни технологични пионери призоваха за шестмесечна пауза в разработването на ИИ поради опасения за безопасността.

Американските законодатели започнаха да проучват „мерки за отчетност“ за ИИ, като Националната администрация по телекомуникации и информация (NTIA) ще започне публично допитване за услугите на ИИ, за да информира за  политиката на Белия дом.

Службата за управление и бюджет също обяви, че ще публикува проект на политика относно потенциала на системите за ИИ да бъдат използвани от федералните министерства и агенции.

Надяваме се, че обществените коментари по този проект, съчетани с евентуален модел за федерално прилагане, биха могли да създадат прецедент за отговорно използване на ИИ, който може да бъде възпроизведен в цялата индустрия и в щатските и местните власти.

Експертите съветват фирмите, работещи с ИИ, да възприемат по-голяма прозрачност, за да избегнат бъдещи регулаторни санкции, особено като се има предвид, че Законът за ИИ на ЕС се стреми да наложи по-голяма отговорност на разработчиците за неправилна употреба на техните модели на ИИ.

Последният проект на дългоочакваното законодателство на блока за ИИ има за цел също така да предпази предприятията от кражба на интелектуална собственост, както и да определи ясни насоки за системите за ИИ, които представляват риск за правата на човека, като например тези, използвани за разпознаване на лица в реално време.

Фирмите за изкуствен интелект са подложени на все по-голям натиск да се съобразят с регулаторните изисквания в ЕС, като неотдавнашният случай на забрана на ChatGPT от Италия поради опасения, свързани с GDPR, се откроява като ранна индикация за санкциите, които могат да бъдат наложени на технологичните компании в близко бъдеще.

На OpenAI беше казано, че трябва да въведе контрол върху „правото да бъдеш забравен“ за ChatGPT, за да бъде допусната обратно в Италия, а регулаторите на ЕС за защита на данните могат да последват този пример за други чатботове с изкуствен интелект.

 

itpro.co.uk

Подобни

Кибератака спря интернет достъпа в училища и детски градини в Инвърклайд
25.01.2026
phishing-7487504_640
Кибератака срещу Дрезденските държавни художествени колекции
25.01.2026
man-2590655_640
Край на дългия регулаторен спор около TikTok
23.01.2026
tiktok-privacy
OpenAI влиза в хардуера през втората половина на 2026 г.
23.01.2026
OpenAI-GPT-4
Гръцката полиция разби схема за SMS фишинг от ново поколение
23.01.2026
flag-greece-officially-adopted-first-national-assembly-epidaurus-january-50937798
Централната банка на Иран използва USDT, за да заобикаля санкциите
23.01.2026
181213-iran-hacking

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov
Вишинг измами срещу потребители на Revolut
11.12.2025
revolut
ClickFix кампания атакува хотели и туристически компании в България и ЕС
6.01.2026
Blue_screen_of_death-Maurice_Savage-Alamy

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.