Търсене
Close this search box.

САЩ изостават в регулирането на ИИ

Първите опити за регулиране на програмите за изкуствен интелект, които играят скрита роля при наемането на работа, настаняването и вземането на медицински решения за милиони американци, са подложени на натиск от всички страни и се провалят в щатските парламенти в цялата страна.

Само един от седемте законопроекта, целящи да предотвратят склонността на изкуствения интелект да дискриминира при вземането на важни решения – включително кой да бъде нает на работа, да получи пари за жилище или медицински грижи – е приет. Губернаторът на Колорадо Джаред Полис колебливо подписа законопроекта в петък.

Законопроектът на Колорадо, както и тези, които бяха отхвърлени във Вашингтон, Кънектикът и на други места, се сблъскаха с битки на много фронтове, включително между групите за граждански права и технологичната индустрия, законодателите, които се опасяват да навлязат в технология, която малцина разбират, и губернаторите, които се притесняват да не се окажат „странен щат“ и да не изплашат стартиращите компании за ИИ.

Полис подписа законопроекта на Колорадо „с резерви“, като заяви в изявление, че е предпазлив по отношение на регулациите, които спират иновациите в областта на ИИ. Законопроектът е с двугодишен срок на действие и може да бъде променян, преди да стане закон.

„Насърчавам (законодателите) да го подобрят значително, преди да влезе в сила“, написа Полис.

 

Предложението на Колорадо, заедно с шест сродни законопроекта, е сложно, но като цяло ще изисква от компаниите да оценяват риска от дискриминация от техния ИИ и да информират клиентите, когато ИИ е използван, за да им помогне да вземат последващо решение.

Законопроектите са отделно от повече от 400 законопроекта, свързани с ИИ, които бяха обсъдени тази година. Повечето от тях са насочени към просеки на ИИ, като например използването на дълбоки фалшификати в избори или за създаване на порнография.

Седемте законопроекта са по-амбициозни, като се прилагат в основните отрасли и са насочени към дискриминацията – един от най-противоречивите и сложни проблеми на технологията.

„Всъщност нямаме никаква видимост за алгоритмите, които се използват, дали работят или не, или дали сме дискриминирани“, каза Румман Чоудхури, пратеник по въпросите на изкуствения интелект към Държавния департамент на САЩ, който преди това е ръководил етичния екип по изкуствен интелект на Twitter.

Макар че законите за борба с дискриминацията вече са в сила, тези, които изучават дискриминацията, свързана с ИИ, казват, че това е „друга бира“, като САЩ вече изостава в регулирането.

„Компютрите взимат пристрастни решения в голям мащаб“, казва Кристин Уебър, адвокат по граждански права, която е работила по колективни искове за дискриминация, включително срещу Boeing и Tyson Foods. Сега Уебър е близо до окончателно одобрение на едно от първите в страната споразумения по колективен иск за дискриминация, свързана с изкуствен интелект.

„Не трябва да казвам, че и старите системи са били напълно свободни от пристрастия“, казва Уебър. Но „всеки един човек можеше да прегледа само толкова много автобиографии за един ден. Така че за един ден бихте могли да вземете само толкова много пристрастни решения, а компютърът може да го направи бързо при голям брой хора.“

 

Когато кандидатствате за работа, апартамент или жилищен кредит, има голяма вероятност изкуственият интелект да оценява кандидатурата ви: да я изпраща нагоре по линията, да ѝ поставя оценка или да я филтрира. По данни на Комисията за равни възможности за заетост 83% от работодателите използват алгоритми, за да си помагат при наемането на работа.

Самият ИИ не знае какво да търси в една кандидатура за работа, затова се обучава въз основа на предишни автобиографии. Историческите данни, които се използват за обучение на алгоритмите, могат да вкарат предубеждения.

Amazon например работи по алгоритъм за наемане на служители, който е обучен на базата на стари автобиографии: предимно кандидати мъже. Когато оценяваше новите кандидати, той понижаваше оценката на автобиографиите с думата „женски“ или които изброяваха женски колежи, тъй като те не бяха представени в историческите данни – автобиографиите – от които беше обучен. Проектът беше прекратен.

В колективния иск на Уебър се твърди, че системата за изкуствен интелект, която оценява кандидатурите за наемане на работа, несъразмерно е поставяла по-ниски оценки на чернокожи или латиноамерикански кандидати. Проучване установи, че система за изкуствен интелект, създадена за оценка на медицинските нужди, пропуска чернокожи пациенти за специални грижи.

Проучванията и съдебните дела позволиха да се надникне под капака на системите с ИИ, но повечето алгоритми остават забулени. Американците до голяма степен не са наясно, че тези инструменти се използват, показва проучване на Pew Research. От компаниите по принцип не се изисква да оповестяват изрично, че е използван ИИ.

„Самото открехване на завесата, за да можем да видим кой наистина прави оценката и какъв инструмент се използва, е огромна, огромна първа стъпка“, казва Уебър. „Съществуващите закони не работят, ако не можем да получим поне някаква основна информация.“

Точно това се опитва да промени законопроектът на Колорадо, заедно с друг оцелял законопроект в Калифорния. Законопроектите, включително и водещото предложение в Кънектикът, което беше отхвърлено поради съпротивата на губернатора, са до голяма степен сходни.

Законопроектът на Колорадо ще изисква от компаниите, които използват ИИ, за да помагат при вземането на важни за американците решения, ежегодно да оценяват своя ИИ за потенциална пристрастност; да прилагат програма за надзор в рамките на компанията; да информират главния прокурор на щата, ако бъде установена дискриминация; и да информират клиентите, когато ИИ е бил използван, за да им помогне да вземат решение, включително възможност за обжалване.

Трудовите профсъюзи и академичните среди се опасяват, че разчитането на това компаниите да се самонаблюдават означава, че ще бъде трудно да се обърне внимание на дискриминацията в системата на ИИ проактивно, преди тя да е нанесла щети. Дружествата се опасяват, че принудителната прозрачност може да разкрие търговски тайни, включително при потенциални съдебни спорове, в тази хиперконкурентна нова област.

Компаниите за ИИ също така настояваха за и като цяло получиха разпоредба, която позволява само на главния прокурор, а не на гражданите, да подават искове по новия закон. Подробностите по прилагането бяха оставени на главния прокурор.

Въпреки че по-големите компании за изкуствен интелект повече или по-малко се съгласиха с тези предложения, група по-малки компании за изкуствен интелект от Колорадо заявиха, че изискванията могат да бъдат изпълнени от огромни компании за изкуствен интелект, но не и от начинаещи стартиращи компании.

„Намираме се в съвсем нова ера на прохождане“, каза Логан Церковник, основател на Thumper.ai, визирайки областта на ИИ. „Наличието на прекалено рестриктивно законодателство, което ни принуждава да въвеждаме дефиниции и ограничава използването на технологиите, докато те се формират, просто ще бъде пагубно за иновациите.“

Всички се съгласиха, заедно с много компании за ИИ, че това, което официално се нарича „алгоритмична дискриминация“, е от решаващо значение за справяне. Но според тях законопроектът във вида, в който е написан, не постига тази цел. Вместо това те предложиха да се засилят съществуващите закони за борба с дискриминацията.

Чоудхури се притеснява, че съдебните дела са твърде скъпи и отнемат много време, за да бъдат ефективен инструмент за прилагане, и вместо това законите трябва да надхвърлят това, което предлага дори Колорадо. Вместо това Чоудхури и учени предложиха акредитирана, независима организация, която може изрично да тества за потенциална пристрастност в алгоритъма на изкуствения интелект.

„Можете да разберете и да се справите с един човек, който е дискриминиран или пристрастен“, каза Чоудхури. „Какво правим, когато това е вградено в цялата институция?“

Associated Press

 

Източник: По материали от Интернет

Подобни публикации

Време е да се справим с проблема със сигурностт...

Софтуерните компании от десетилетия се основават на отворен код. Се...
15 юни 2024

Чък Робинс: "Нашата работа е да не се проваляме"

Бившият главен изпълнителен директор на Splunk Гари Стил се ангажир...

Наследените технологии пречат на дигиталната тр...

Според ново проучване остарелите наследени технологии пречат на орг...
15 юни 2024

Европол започва лов на отделни киберпрестъпници

След впечатляващото разбиване на ботнет само преди няколко дни межд...
14 юни 2024

Засилени киберзаплахи пред Евро 2024

Евро 2024  в Германия започва след няколко часа и ще завърши след м...

Ню Йорк Таймс предупреждава фрийлансърите си за...

Ню Йорк Таймс уведоми неразкрит брой сътрудници, че част от чувстви...
14 юни 2024

YouTube преминава към инжектиране на реклами от...

Съобщава се, че YouTube вече вкарва реклами директно във видеопотоц...
14 юни 2024

Как да повишим киберсигурността на компаниите з...

Технологичният пейзаж се променя бързо, което поставя нови предизви...
Бъдете социални
Още по темата
12/06/2024

Mistral увеличи оценката с...

Френският (и европейски) любимец на GenAI...
01/06/2024

Приложение за генериране на...

Gipy – новооткрита кампания, използваща щам...
31/05/2024

OpenAI сформира нов комитет...

Комитетът се създава в момент, когато...
Последно добавени
15/06/2024

Време е да се справим с про...

Софтуерните компании от десетилетия се основават...
15/06/2024

Чък Робинс: "Нашата работа ...

Бившият главен изпълнителен директор на Splunk...
15/06/2024

Наследените технологии преч...

Според ново проучване остарелите наследени технологии...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!