Първите опити за регулиране на програмите за изкуствен интелект, които играят скрита роля при наемането на работа, настаняването и вземането на медицински решения за милиони американци, са подложени на натиск от всички страни и се провалят в щатските парламенти в цялата страна.
Само един от седемте законопроекта, целящи да предотвратят склонността на изкуствения интелект да дискриминира при вземането на важни решения – включително кой да бъде нает на работа, да получи пари за жилище или медицински грижи – е приет. Губернаторът на Колорадо Джаред Полис колебливо подписа законопроекта в петък.
Законопроектът на Колорадо, както и тези, които бяха отхвърлени във Вашингтон, Кънектикът и на други места, се сблъскаха с битки на много фронтове, включително между групите за граждански права и технологичната индустрия, законодателите, които се опасяват да навлязат в технология, която малцина разбират, и губернаторите, които се притесняват да не се окажат „странен щат“ и да не изплашат стартиращите компании за ИИ.
Полис подписа законопроекта на Колорадо „с резерви“, като заяви в изявление, че е предпазлив по отношение на регулациите, които спират иновациите в областта на ИИ. Законопроектът е с двугодишен срок на действие и може да бъде променян, преди да стане закон.
„Насърчавам (законодателите) да го подобрят значително, преди да влезе в сила“, написа Полис.
Предложението на Колорадо, заедно с шест сродни законопроекта, е сложно, но като цяло ще изисква от компаниите да оценяват риска от дискриминация от техния ИИ и да информират клиентите, когато ИИ е използван, за да им помогне да вземат последващо решение.
Законопроектите са отделно от повече от 400 законопроекта, свързани с ИИ, които бяха обсъдени тази година. Повечето от тях са насочени към просеки на ИИ, като например използването на дълбоки фалшификати в избори или за създаване на порнография.
Седемте законопроекта са по-амбициозни, като се прилагат в основните отрасли и са насочени към дискриминацията – един от най-противоречивите и сложни проблеми на технологията.
„Всъщност нямаме никаква видимост за алгоритмите, които се използват, дали работят или не, или дали сме дискриминирани“, каза Румман Чоудхури, пратеник по въпросите на изкуствения интелект към Държавния департамент на САЩ, който преди това е ръководил етичния екип по изкуствен интелект на Twitter.
Макар че законите за борба с дискриминацията вече са в сила, тези, които изучават дискриминацията, свързана с ИИ, казват, че това е „друга бира“, като САЩ вече изостава в регулирането.
„Компютрите взимат пристрастни решения в голям мащаб“, казва Кристин Уебър, адвокат по граждански права, която е работила по колективни искове за дискриминация, включително срещу Boeing и Tyson Foods. Сега Уебър е близо до окончателно одобрение на едно от първите в страната споразумения по колективен иск за дискриминация, свързана с изкуствен интелект.
„Не трябва да казвам, че и старите системи са били напълно свободни от пристрастия“, казва Уебър. Но „всеки един човек можеше да прегледа само толкова много автобиографии за един ден. Така че за един ден бихте могли да вземете само толкова много пристрастни решения, а компютърът може да го направи бързо при голям брой хора.“
Когато кандидатствате за работа, апартамент или жилищен кредит, има голяма вероятност изкуственият интелект да оценява кандидатурата ви: да я изпраща нагоре по линията, да ѝ поставя оценка или да я филтрира. По данни на Комисията за равни възможности за заетост 83% от работодателите използват алгоритми, за да си помагат при наемането на работа.
Самият ИИ не знае какво да търси в една кандидатура за работа, затова се обучава въз основа на предишни автобиографии. Историческите данни, които се използват за обучение на алгоритмите, могат да вкарат предубеждения.
Amazon например работи по алгоритъм за наемане на служители, който е обучен на базата на стари автобиографии: предимно кандидати мъже. Когато оценяваше новите кандидати, той понижаваше оценката на автобиографиите с думата „женски“ или които изброяваха женски колежи, тъй като те не бяха представени в историческите данни – автобиографиите – от които беше обучен. Проектът беше прекратен.
В колективния иск на Уебър се твърди, че системата за изкуствен интелект, която оценява кандидатурите за наемане на работа, несъразмерно е поставяла по-ниски оценки на чернокожи или латиноамерикански кандидати. Проучване установи, че система за изкуствен интелект, създадена за оценка на медицинските нужди, пропуска чернокожи пациенти за специални грижи.
Проучванията и съдебните дела позволиха да се надникне под капака на системите с ИИ, но повечето алгоритми остават забулени. Американците до голяма степен не са наясно, че тези инструменти се използват, показва проучване на Pew Research. От компаниите по принцип не се изисква да оповестяват изрично, че е използван ИИ.
„Самото открехване на завесата, за да можем да видим кой наистина прави оценката и какъв инструмент се използва, е огромна, огромна първа стъпка“, казва Уебър. „Съществуващите закони не работят, ако не можем да получим поне някаква основна информация.“
Точно това се опитва да промени законопроектът на Колорадо, заедно с друг оцелял законопроект в Калифорния. Законопроектите, включително и водещото предложение в Кънектикът, което беше отхвърлено поради съпротивата на губернатора, са до голяма степен сходни.
Законопроектът на Колорадо ще изисква от компаниите, които използват ИИ, за да помагат при вземането на важни за американците решения, ежегодно да оценяват своя ИИ за потенциална пристрастност; да прилагат програма за надзор в рамките на компанията; да информират главния прокурор на щата, ако бъде установена дискриминация; и да информират клиентите, когато ИИ е бил използван, за да им помогне да вземат решение, включително възможност за обжалване.
Трудовите профсъюзи и академичните среди се опасяват, че разчитането на това компаниите да се самонаблюдават означава, че ще бъде трудно да се обърне внимание на дискриминацията в системата на ИИ проактивно, преди тя да е нанесла щети. Дружествата се опасяват, че принудителната прозрачност може да разкрие търговски тайни, включително при потенциални съдебни спорове, в тази хиперконкурентна нова област.
Компаниите за ИИ също така настояваха за и като цяло получиха разпоредба, която позволява само на главния прокурор, а не на гражданите, да подават искове по новия закон. Подробностите по прилагането бяха оставени на главния прокурор.
Въпреки че по-големите компании за изкуствен интелект повече или по-малко се съгласиха с тези предложения, група по-малки компании за изкуствен интелект от Колорадо заявиха, че изискванията могат да бъдат изпълнени от огромни компании за изкуствен интелект, но не и от начинаещи стартиращи компании.
„Намираме се в съвсем нова ера на прохождане“, каза Логан Церковник, основател на Thumper.ai, визирайки областта на ИИ. „Наличието на прекалено рестриктивно законодателство, което ни принуждава да въвеждаме дефиниции и ограничава използването на технологиите, докато те се формират, просто ще бъде пагубно за иновациите.“
Всички се съгласиха, заедно с много компании за ИИ, че това, което официално се нарича „алгоритмична дискриминация“, е от решаващо значение за справяне. Но според тях законопроектът във вида, в който е написан, не постига тази цел. Вместо това те предложиха да се засилят съществуващите закони за борба с дискриминацията.
Чоудхури се притеснява, че съдебните дела са твърде скъпи и отнемат много време, за да бъдат ефективен инструмент за прилагане, и вместо това законите трябва да надхвърлят това, което предлага дори Колорадо. Вместо това Чоудхури и учени предложиха акредитирана, независима организация, която може изрично да тества за потенциална пристрастност в алгоритъма на изкуствения интелект.
„Можете да разберете и да се справите с един човек, който е дискриминиран или пристрастен“, каза Чоудхури. „Какво правим, когато това е вградено в цялата институция?“
Associated Press
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.