Администрацията на Байдън призова за по-строг контрол върху изкуствения интелект, като същевременно подчерта значението на технологията
Белият дом си постави за цел да осъществи дългогодишно сътрудничество с участието на лидери в областта на ИИ в частния сектор, за да гарантира, че бързо развиващата се технология ще остане безопасна и етична.
Изпълнителните директори на големите технологични компании присъстваха на среща в четвъртък, на която присъстваха както президентът Джо Байдън, така и вицепрезидентът Камала Харис, и която завърши с ангажимента им за отговорно развитие на ИИ.
Вицепрезидентът Харис посрещна Сам Алтман, главен изпълнителен директор на OpenAI, Дарио Амодей, главен изпълнителен директор на Anthropic, Сатя Надела, председател и главен изпълнителен директор на Microsoft, и Сундар Пичай, главен изпълнителен директор на Google и Alphabet, за да обсъдят настоящите пазарни подходи към ИИ.
Както Харис, така и Байдън се опитаха да внушат важността на стратегиите за превенция на риска при разработването на ИИ и постигнаха ангажимент от страна на изпълнителните директори да продължат да се ангажират с администрацията на Байдън по този въпрос.
Едновременно с обявяването на срещата и резултатите от нея Националната научна фондация също така официално отпусна 140 млн. долара за финансиране на седем нови национални института за изследвания в областта на ИИ, които ще работят с федерални агенции, промишлени организации и висши учебни заведения за разработване на етични и надеждни решения в областта на ИИ.
„Президентът Байдън е категоричен, че когато става въпрос за ИИ, трябва да поставим хората и общностите в центъра, като подкрепяме отговорни иновации, които служат на общественото благо, като същевременно защитават нашето общество, сигурност и икономика“, се казва в изявлението на Белия дом.
„Важно е да се отбележи, че това означава, че компаниите имат основна отговорност да се уверят, че техните продукти са безопасни, преди да бъдат внедрени или направени обществено достояние.“
Администрацията на Байдън изтъкна, че научноизследователската и развойна дейност в областта на изкуствения интелект е от решаващо значение за подхода към проблеми като киберсигурността, енергетиката, изменението на климата и образованието.
През последните месеци генеративният ИИ отбеляза бърз растеж чрез чатботове като ChatGPT и Bard, но също така предизвика и опасения.
Академичните институции се борят с липсата на инструменти за откриване на генериран от ИИ текст, а през март известни технологични пионери призоваха за шестмесечна пауза в разработването на ИИ поради опасения за безопасността.
Американските законодатели започнаха да проучват „мерки за отчетност“ за ИИ, като Националната администрация по телекомуникации и информация (NTIA) ще започне публично допитване за услугите на ИИ, за да информира за политиката на Белия дом.
Службата за управление и бюджет също обяви, че ще публикува проект на политика относно потенциала на системите за ИИ да бъдат използвани от федералните министерства и агенции.
Надяваме се, че обществените коментари по този проект, съчетани с евентуален модел за федерално прилагане, биха могли да създадат прецедент за отговорно използване на ИИ, който може да бъде възпроизведен в цялата индустрия и в щатските и местните власти.
Експертите съветват фирмите, работещи с ИИ, да възприемат по-голяма прозрачност, за да избегнат бъдещи регулаторни санкции, особено като се има предвид, че Законът за ИИ на ЕС се стреми да наложи по-голяма отговорност на разработчиците за неправилна употреба на техните модели на ИИ.
Последният проект на дългоочакваното законодателство на блока за ИИ има за цел също така да предпази предприятията от кражба на интелектуална собственост, както и да определи ясни насоки за системите за ИИ, които представляват риск за правата на човека, като например тези, използвани за разпознаване на лица в реално време.
Фирмите за изкуствен интелект са подложени на все по-голям натиск да се съобразят с регулаторните изисквания в ЕС, като неотдавнашният случай на забрана на ChatGPT от Италия поради опасения, свързани с GDPR, се откроява като ранна индикация за санкциите, които могат да бъдат наложени на технологичните компании в близко бъдеще.
На OpenAI беше казано, че трябва да въведе контрол върху „правото да бъдеш забравен“ за ChatGPT, за да бъде допусната обратно в Италия, а регулаторите на ЕС за защита на данните могат да последват този пример за други чатботове с изкуствен интелект.
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.