Администрацията на Байдън призова за по-строг контрол върху изкуствения интелект, като същевременно подчерта значението на технологията

Белият дом си постави за цел да осъществи дългогодишно сътрудничество с участието на лидери в областта на ИИ в частния сектор, за да гарантира, че бързо развиващата се технология ще остане безопасна и етична.

Изпълнителните директори на големите технологични компании присъстваха на среща в четвъртък, на която присъстваха както президентът Джо Байдън, така и вицепрезидентът Камала Харис, и която завърши с ангажимента им за отговорно развитие на ИИ.

Вицепрезидентът Харис посрещна Сам Алтман, главен изпълнителен директор на OpenAI, Дарио Амодей, главен изпълнителен директор на Anthropic, Сатя Надела, председател и главен изпълнителен директор на Microsoft, и Сундар Пичай, главен изпълнителен директор на Google и Alphabet, за да обсъдят настоящите пазарни подходи към ИИ.

Както Харис, така и Байдън се опитаха да внушат важността на стратегиите за превенция на риска при разработването на ИИ и постигнаха ангажимент от страна на изпълнителните директори да продължат да се ангажират с администрацията на Байдън по този въпрос.

Едновременно с обявяването на срещата и резултатите от нея Националната научна фондация също така официално отпусна 140 млн. долара за финансиране на седем нови национални института за изследвания в областта на ИИ, които ще работят с федерални агенции, промишлени организации и висши учебни заведения за разработване на етични и надеждни решения в областта на ИИ.

„Президентът Байдън е категоричен, че когато става въпрос за ИИ, трябва да поставим хората и общностите в центъра, като подкрепяме отговорни иновации, които служат на общественото благо, като същевременно защитават нашето общество, сигурност и икономика“, се казва в изявлението на Белия дом.

„Важно е да се отбележи, че това означава, че компаниите имат основна отговорност да се уверят, че техните продукти са безопасни, преди да бъдат внедрени или направени обществено достояние.“

Администрацията на Байдън изтъкна, че научноизследователската и развойна дейност в областта на изкуствения интелект е от решаващо значение за подхода към проблеми като киберсигурността, енергетиката, изменението на климата и образованието.

През последните месеци генеративният ИИ отбеляза бърз растеж чрез чатботове като ChatGPT и Bard, но също така предизвика и опасения.

Академичните институции се борят с липсата на инструменти за откриване на генериран от ИИ текст, а през март известни технологични пионери призоваха за шестмесечна пауза в разработването на ИИ поради опасения за безопасността.

Американските законодатели започнаха да проучват „мерки за отчетност“ за ИИ, като Националната администрация по телекомуникации и информация (NTIA) ще започне публично допитване за услугите на ИИ, за да информира за  политиката на Белия дом.

Службата за управление и бюджет също обяви, че ще публикува проект на политика относно потенциала на системите за ИИ да бъдат използвани от федералните министерства и агенции.

Надяваме се, че обществените коментари по този проект, съчетани с евентуален модел за федерално прилагане, биха могли да създадат прецедент за отговорно използване на ИИ, който може да бъде възпроизведен в цялата индустрия и в щатските и местните власти.

Експертите съветват фирмите, работещи с ИИ, да възприемат по-голяма прозрачност, за да избегнат бъдещи регулаторни санкции, особено като се има предвид, че Законът за ИИ на ЕС се стреми да наложи по-голяма отговорност на разработчиците за неправилна употреба на техните модели на ИИ.

Последният проект на дългоочакваното законодателство на блока за ИИ има за цел също така да предпази предприятията от кражба на интелектуална собственост, както и да определи ясни насоки за системите за ИИ, които представляват риск за правата на човека, като например тези, използвани за разпознаване на лица в реално време.

Фирмите за изкуствен интелект са подложени на все по-голям натиск да се съобразят с регулаторните изисквания в ЕС, като неотдавнашният случай на забрана на ChatGPT от Италия поради опасения, свързани с GDPR, се откроява като ранна индикация за санкциите, които могат да бъдат наложени на технологичните компании в близко бъдеще.

На OpenAI беше казано, че трябва да въведе контрол върху „правото да бъдеш забравен“ за ChatGPT, за да бъде допусната обратно в Италия, а регулаторите на ЕС за защита на данните могат да последват този пример за други чатботове с изкуствен интелект.

 

Източник: itpro.co.uk

Подобни публикации

19 януари 2025

Нарушението на данните на Wolf Haldenstein зася...

Адвокатската кантора Wolf Haldenstein Adler Freeman & Herz LLP ...
19 януари 2025

САЩ призовават за преодоляване на разликата в р...

Агенцията за киберсигурност CISA и други правителствени агенции при...
19 януари 2025

САЩ наложиха санкции за масираната хакерска ата...

Министерството на финансите обяви в петък санкции във връзка с маща...
19 януари 2025

Фалшивият Брад Пит е разкрит: как етичен хакер ...

Маруан Уараб, бивш измамник и киберпрестъпник, превърнал се в етиче...
18 януари 2025

FTC нарежда на GoDaddy да коригира неадекватнит...

След като установи, че политиките за сигурност на GoDaddy са недост...
17 януари 2025

SSO - опростете достъпа и защитете бизнеса си

Днес предприятията са изправени пред сложна работна среда, в която ...
Бъдете социални
Още по темата
19/01/2025

САЩ призовават за преодоляв...

Агенцията за киберсигурност CISA и други...
19/01/2025

САЩ наложиха санкции за мас...

Министерството на финансите обяви в петък...
19/01/2025

Фалшивият Брад Пит е разкри...

Маруан Уараб, бивш измамник и киберпрестъпник,...
Последно добавени
19/01/2025

Нарушението на данните на W...

Адвокатската кантора Wolf Haldenstein Adler Freeman...
19/01/2025

САЩ призовават за преодоляв...

Агенцията за киберсигурност CISA и други...
19/01/2025

САЩ наложиха санкции за мас...

Министерството на финансите обяви в петък...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!