Търсене
Close this search box.

Първите опити за регулиране на програмите за изкуствен интелект, които играят скрита роля при наемането на работа, настаняването и вземането на медицински решения за милиони американци, са подложени на натиск от всички страни и се провалят в щатските парламенти в цялата страна.

Само един от седемте законопроекта, целящи да предотвратят склонността на изкуствения интелект да дискриминира при вземането на важни решения – включително кой да бъде нает на работа, да получи пари за жилище или медицински грижи – е приет. Губернаторът на Колорадо Джаред Полис колебливо подписа законопроекта в петък.

Законопроектът на Колорадо, както и тези, които бяха отхвърлени във Вашингтон, Кънектикът и на други места, се сблъскаха с битки на много фронтове, включително между групите за граждански права и технологичната индустрия, законодателите, които се опасяват да навлязат в технология, която малцина разбират, и губернаторите, които се притесняват да не се окажат „странен щат“ и да не изплашат стартиращите компании за ИИ.

Полис подписа законопроекта на Колорадо „с резерви“, като заяви в изявление, че е предпазлив по отношение на регулациите, които спират иновациите в областта на ИИ. Законопроектът е с двугодишен срок на действие и може да бъде променян, преди да стане закон.

„Насърчавам (законодателите) да го подобрят значително, преди да влезе в сила“, написа Полис.

 

Предложението на Колорадо, заедно с шест сродни законопроекта, е сложно, но като цяло ще изисква от компаниите да оценяват риска от дискриминация от техния ИИ и да информират клиентите, когато ИИ е използван, за да им помогне да вземат последващо решение.

Законопроектите са отделно от повече от 400 законопроекта, свързани с ИИ, които бяха обсъдени тази година. Повечето от тях са насочени към просеки на ИИ, като например използването на дълбоки фалшификати в избори или за създаване на порнография.

Седемте законопроекта са по-амбициозни, като се прилагат в основните отрасли и са насочени към дискриминацията – един от най-противоречивите и сложни проблеми на технологията.

„Всъщност нямаме никаква видимост за алгоритмите, които се използват, дали работят или не, или дали сме дискриминирани“, каза Румман Чоудхури, пратеник по въпросите на изкуствения интелект към Държавния департамент на САЩ, който преди това е ръководил етичния екип по изкуствен интелект на Twitter.

Макар че законите за борба с дискриминацията вече са в сила, тези, които изучават дискриминацията, свързана с ИИ, казват, че това е „друга бира“, като САЩ вече изостава в регулирането.

„Компютрите взимат пристрастни решения в голям мащаб“, казва Кристин Уебър, адвокат по граждански права, която е работила по колективни искове за дискриминация, включително срещу Boeing и Tyson Foods. Сега Уебър е близо до окончателно одобрение на едно от първите в страната споразумения по колективен иск за дискриминация, свързана с изкуствен интелект.

„Не трябва да казвам, че и старите системи са били напълно свободни от пристрастия“, казва Уебър. Но „всеки един човек можеше да прегледа само толкова много автобиографии за един ден. Така че за един ден бихте могли да вземете само толкова много пристрастни решения, а компютърът може да го направи бързо при голям брой хора.“

 

Когато кандидатствате за работа, апартамент или жилищен кредит, има голяма вероятност изкуственият интелект да оценява кандидатурата ви: да я изпраща нагоре по линията, да ѝ поставя оценка или да я филтрира. По данни на Комисията за равни възможности за заетост 83% от работодателите използват алгоритми, за да си помагат при наемането на работа.

Самият ИИ не знае какво да търси в една кандидатура за работа, затова се обучава въз основа на предишни автобиографии. Историческите данни, които се използват за обучение на алгоритмите, могат да вкарат предубеждения.

Amazon например работи по алгоритъм за наемане на служители, който е обучен на базата на стари автобиографии: предимно кандидати мъже. Когато оценяваше новите кандидати, той понижаваше оценката на автобиографиите с думата „женски“ или които изброяваха женски колежи, тъй като те не бяха представени в историческите данни – автобиографиите – от които беше обучен. Проектът беше прекратен.

В колективния иск на Уебър се твърди, че системата за изкуствен интелект, която оценява кандидатурите за наемане на работа, несъразмерно е поставяла по-ниски оценки на чернокожи или латиноамерикански кандидати. Проучване установи, че система за изкуствен интелект, създадена за оценка на медицинските нужди, пропуска чернокожи пациенти за специални грижи.

Проучванията и съдебните дела позволиха да се надникне под капака на системите с ИИ, но повечето алгоритми остават забулени. Американците до голяма степен не са наясно, че тези инструменти се използват, показва проучване на Pew Research. От компаниите по принцип не се изисква да оповестяват изрично, че е използван ИИ.

„Самото открехване на завесата, за да можем да видим кой наистина прави оценката и какъв инструмент се използва, е огромна, огромна първа стъпка“, казва Уебър. „Съществуващите закони не работят, ако не можем да получим поне някаква основна информация.“

Точно това се опитва да промени законопроектът на Колорадо, заедно с друг оцелял законопроект в Калифорния. Законопроектите, включително и водещото предложение в Кънектикът, което беше отхвърлено поради съпротивата на губернатора, са до голяма степен сходни.

Законопроектът на Колорадо ще изисква от компаниите, които използват ИИ, за да помагат при вземането на важни за американците решения, ежегодно да оценяват своя ИИ за потенциална пристрастност; да прилагат програма за надзор в рамките на компанията; да информират главния прокурор на щата, ако бъде установена дискриминация; и да информират клиентите, когато ИИ е бил използван, за да им помогне да вземат решение, включително възможност за обжалване.

Трудовите профсъюзи и академичните среди се опасяват, че разчитането на това компаниите да се самонаблюдават означава, че ще бъде трудно да се обърне внимание на дискриминацията в системата на ИИ проактивно, преди тя да е нанесла щети. Дружествата се опасяват, че принудителната прозрачност може да разкрие търговски тайни, включително при потенциални съдебни спорове, в тази хиперконкурентна нова област.

Компаниите за ИИ също така настояваха за и като цяло получиха разпоредба, която позволява само на главния прокурор, а не на гражданите, да подават искове по новия закон. Подробностите по прилагането бяха оставени на главния прокурор.

Въпреки че по-големите компании за изкуствен интелект повече или по-малко се съгласиха с тези предложения, група по-малки компании за изкуствен интелект от Колорадо заявиха, че изискванията могат да бъдат изпълнени от огромни компании за изкуствен интелект, но не и от начинаещи стартиращи компании.

„Намираме се в съвсем нова ера на прохождане“, каза Логан Церковник, основател на Thumper.ai, визирайки областта на ИИ. „Наличието на прекалено рестриктивно законодателство, което ни принуждава да въвеждаме дефиниции и ограничава използването на технологиите, докато те се формират, просто ще бъде пагубно за иновациите.“

Всички се съгласиха, заедно с много компании за ИИ, че това, което официално се нарича „алгоритмична дискриминация“, е от решаващо значение за справяне. Но според тях законопроектът във вида, в който е написан, не постига тази цел. Вместо това те предложиха да се засилят съществуващите закони за борба с дискриминацията.

Чоудхури се притеснява, че съдебните дела са твърде скъпи и отнемат много време, за да бъдат ефективен инструмент за прилагане, и вместо това законите трябва да надхвърлят това, което предлага дори Колорадо. Вместо това Чоудхури и учени предложиха акредитирана, независима организация, която може изрично да тества за потенциална пристрастност в алгоритъма на изкуствения интелект.

„Можете да разберете и да се справите с един човек, който е дискриминиран или пристрастен“, каза Чоудхури. „Какво правим, когато това е вградено в цялата институция?“

Associated Press

 

Източник: По материали от Интернет

Подобни публикации

4 октомври 2024

Русия арестува 96 души, свързани с прекъснати о...

Тази седмица руските власти обявиха, че са арестували 96 души по по...
4 октомври 2024

Използвана уязвимост на Ivanti EPM

Тази седмица Ivanti и американската агенция за киберсигурност CISA ...
4 октомври 2024

Холандското правителство обвинява АРТ за хакван...

Министърът на правосъдието заяви пред депутатите, че кибератаката, ...
3 октомври 2024

Криптопортфейли, насочени чрез пакети за Python...

Потребителите на популярни портфейли за криптовалута са били обект ...
3 октомври 2024

САЩ и техните съюзници издават ръководство за з...

Нови насоки от правителствени агенции в САЩ и съюзнически държави п...
3 октомври 2024

MITRE добавя смекчаващи мерки към модела на зап...

Във вторник (в България сряда )MITRE обяви пълната версия на модела...
3 октомври 2024

Пробив с нулев ден в Rackspace Sparks Vendor B...

Корпоративният хост за облачни услуги Rackspace е бил хакнат чрез н...
Бъдете социални
Още по темата
03/10/2024

Microsoft представя Copilot...

Във вторник Microsoft представи нов инструмент...
30/09/2024

Калифорния наложи вето върх...

В неделя губернаторът на Калифорния Гавин...
23/09/2024

LinkedIn адресира събиранет...

Компанията обяви актуализация на своята политика...
Последно добавени
04/10/2024

Русия арестува 96 души, свъ...

Тази седмица руските власти обявиха, че...
04/10/2024

Използвана уязвимост на Iva...

Тази седмица Ivanti и американската агенция...
04/10/2024

Холандското правителство об...

Министърът на правосъдието заяви пред депутатите,...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!