Търсене
Close this search box.

Байдън е за отговорно развитие на изкуствения интелект

Администрацията на Байдън призова за по-строг контрол върху изкуствения интелект, като същевременно подчерта значението на технологията

Белият дом си постави за цел да осъществи дългогодишно сътрудничество с участието на лидери в областта на ИИ в частния сектор, за да гарантира, че бързо развиващата се технология ще остане безопасна и етична.

Изпълнителните директори на големите технологични компании присъстваха на среща в четвъртък, на която присъстваха както президентът Джо Байдън, така и вицепрезидентът Камала Харис, и която завърши с ангажимента им за отговорно развитие на ИИ.

Вицепрезидентът Харис посрещна Сам Алтман, главен изпълнителен директор на OpenAI, Дарио Амодей, главен изпълнителен директор на Anthropic, Сатя Надела, председател и главен изпълнителен директор на Microsoft, и Сундар Пичай, главен изпълнителен директор на Google и Alphabet, за да обсъдят настоящите пазарни подходи към ИИ.

Както Харис, така и Байдън се опитаха да внушат важността на стратегиите за превенция на риска при разработването на ИИ и постигнаха ангажимент от страна на изпълнителните директори да продължат да се ангажират с администрацията на Байдън по този въпрос.

Едновременно с обявяването на срещата и резултатите от нея Националната научна фондация също така официално отпусна 140 млн. долара за финансиране на седем нови национални института за изследвания в областта на ИИ, които ще работят с федерални агенции, промишлени организации и висши учебни заведения за разработване на етични и надеждни решения в областта на ИИ.

„Президентът Байдън е категоричен, че когато става въпрос за ИИ, трябва да поставим хората и общностите в центъра, като подкрепяме отговорни иновации, които служат на общественото благо, като същевременно защитават нашето общество, сигурност и икономика“, се казва в изявлението на Белия дом.

„Важно е да се отбележи, че това означава, че компаниите имат основна отговорност да се уверят, че техните продукти са безопасни, преди да бъдат внедрени или направени обществено достояние.“

Администрацията на Байдън изтъкна, че научноизследователската и развойна дейност в областта на изкуствения интелект е от решаващо значение за подхода към проблеми като киберсигурността, енергетиката, изменението на климата и образованието.

През последните месеци генеративният ИИ отбеляза бърз растеж чрез чатботове като ChatGPT и Bard, но също така предизвика и опасения.

Академичните институции се борят с липсата на инструменти за откриване на генериран от ИИ текст, а през март известни технологични пионери призоваха за шестмесечна пауза в разработването на ИИ поради опасения за безопасността.

Американските законодатели започнаха да проучват „мерки за отчетност“ за ИИ, като Националната администрация по телекомуникации и информация (NTIA) ще започне публично допитване за услугите на ИИ, за да информира за  политиката на Белия дом.

Службата за управление и бюджет също обяви, че ще публикува проект на политика относно потенциала на системите за ИИ да бъдат използвани от федералните министерства и агенции.

Надяваме се, че обществените коментари по този проект, съчетани с евентуален модел за федерално прилагане, биха могли да създадат прецедент за отговорно използване на ИИ, който може да бъде възпроизведен в цялата индустрия и в щатските и местните власти.

Експертите съветват фирмите, работещи с ИИ, да възприемат по-голяма прозрачност, за да избегнат бъдещи регулаторни санкции, особено като се има предвид, че Законът за ИИ на ЕС се стреми да наложи по-голяма отговорност на разработчиците за неправилна употреба на техните модели на ИИ.

Последният проект на дългоочакваното законодателство на блока за ИИ има за цел също така да предпази предприятията от кражба на интелектуална собственост, както и да определи ясни насоки за системите за ИИ, които представляват риск за правата на човека, като например тези, използвани за разпознаване на лица в реално време.

Фирмите за изкуствен интелект са подложени на все по-голям натиск да се съобразят с регулаторните изисквания в ЕС, като неотдавнашният случай на забрана на ChatGPT от Италия поради опасения, свързани с GDPR, се откроява като ранна индикация за санкциите, които могат да бъдат наложени на технологичните компании в близко бъдеще.

На OpenAI беше казано, че трябва да въведе контрол върху „правото да бъдеш забравен“ за ChatGPT, за да бъде допусната обратно в Италия, а регулаторите на ЕС за защита на данните могат да последват този пример за други чатботове с изкуствен интелект.

 

Източник: itpro.co.uk

Подобни публикации

30 май 2024

Измамата "Безплатно пиано"

Мащабна фишинг кампания използва необичайна примамка, за да спечели...
30 май 2024

OmniVision призна за атака с рансъмуер

Гигантът в областта на производството на полупроводници OmniVision ...
29 май 2024

Пуснат е експлойт за FortiSIEM с максимална тежест

Изследователи в областта на сигурността публикуваха доказателство з...
29 май 2024

Операторът на NYSE Intercontinental Exchange по...

Миналата сряда Комисията по ценните книжа и фондовите борси на САЩ ...
29 май 2024

Рутерът за игри TP-Link Archer C5400X е уязвим

Рутерът за игри TP-Link Archer C5400X е уязвим към пропуски в сигур...
29 май 2024

Christie's потвърждава пробив от RansomHub

Christie’s потвърди, че е претърпяла инцидент със сигурността...
Бъдете социални
Още по темата
29/05/2024

Операторът на NYSE Intercon...

Миналата сряда Комисията по ценните книжа...
28/05/2024

Фишингът се разраства

Преходът към облака, лошата хигиена на...
27/05/2024

Макрон: Френският ИИ ще се ...

Френският президент Еманюел Макрон призова лидерите...
Последно добавени
30/05/2024

Измамата "Безплатно пиано"

Мащабна фишинг кампания използва необичайна примамка,...
30/05/2024

OmniVision призна за атака ...

Гигантът в областта на производството на...
29/05/2024

Пуснат е експлойт за FortiS...

Изследователи в областта на сигурността публикуваха...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!