Компанията обяви актуализация на своята политика за поверителност, в която признава, че използва данни на клиенти, за да обучава своите модели с изкуствен интелект.
Твърди се, че сайтът за професионална социална мрежа LinkedIn е използвал данни от своите потребители, за да обучава моделите си за изкуствен интелект (ИИ), без да предупреди потребителите, че прави това.
Според съобщенията от тази седмица LinkedIn не е обновил политиката си за поверителност, за да отрази факта, че събира потребителски данни за целите на обучението на ИИ.
Блейк Лоуит, старши вицепрезидент и главен юрисконсулт на LinkedIn, публикува същия ден в официалния блог на компанията, за да съобщи, че компанията е коригирала пропуска.
Актуализираната политика, която включва преработени често задавани въпроси, потвърждава, че данните се събират автоматично за обучение на ИИ. Според често задаваните въпроси функциите GenAI на LinkedIn биха могли да използват лични данни, за да правят предложения при публикуване.
„Когато става въпрос за използване на данни на членовете за обучение на генеративен AI, предлагаме настройка за отказ“, се казва в публикацията на LinkedIn. „Отказът означава, че LinkedIn и нейните филиали няма да използват вашите лични данни или съдържание в LinkedIn за обучение на модели занапред, но не засяга обучението, което вече се е състояло.“
Шива Нейтън, основател и главен изпълнителен директор на Onymos, изрази дълбока загриженост относно използването от LinkedIn на предварителни потребителски данни за обучение на модели с изкуствен интелект без ясно съгласие или актуализации на условията за ползване.
„Милиони потребители на LinkedIn са се включили по подразбиране, позволявайки личните им данни да захранват системите за изкуствен интелект“, каза той. „Защо това е важно? Вашите данни са лични и частни. Те подхранват изкуствения интелект, но това не трябва да става за сметка на вашето съгласие. Когато компаниите се разпореждат свободно с нашите данни, това създава огромна пропаст в доверието.“
Нейтън добави, че това не се случва само в LinkedIn, като посочи, че много технологии и софтуерни услуги, които хората и предприятията използват днес, правят същото.
„Трябва да променим начина, по който мислим за събирането на данни и използването им за дейности като обучение на модели за изкуствен интелект“, каза той. „Не трябва да изискваме от нашите потребители или клиенти да предоставят данните си в замяна на услуги или функции, тъй като това излага на риск както тях, така и нас.“
LinkedIn все пак обясни, че потребителите могат да преглеждат и изтриват личните си данни от минали сесии, като използват инструмента за достъп до данни на платформата, в зависимост от съответната функция, задвижвана от ИИ.
В САЩ няма федерални закони, които да регулират събирането на данни за използване на изкуствен интелект, и само няколко щата са приели закони за това как трябва да се спазва изборът на потребителите за поверителност чрез механизми за отказ. Но в други части на света LinkedIn трябваше да замрази обучението си по GenAI.
„Понастоящем не даваме възможност за обучение за генеративен ИИ върху данни на членове от Европейското икономическо пространство, Швейцария и Обединеното кралство“, се посочва в ЧЗВ, като се потвърждава, че е спряно събирането на данни в тези географски райони.
Тарун Гангвани, главен продуктов мениджър в DataGrail, казва, че наскоро приетият Закон на ЕС за ИИ има разпоредби в рамките на политиката, които изискват от компаниите, които търгуват със съдържание, генерирано от потребителите, да бъдат прозрачни относно използването му при моделирането на ИИ.
„Необходимостта от изрично разрешение за използване на ИИ върху потребителски данни продължава общата позиция на ЕС за защита на правата на гражданите чрез изискване на изрично съгласие за използване на проследяване“, обяснява Гангвани.
И наистина, ЕС в частност е показал, че е бдителен, когато става въпрос за нарушаване на неприкосновеността на личния живот. Миналата година компанията майка на LinkedIn, Microsoft, трябваше да плати 425 млн. долара глоби за нарушения на GDPR, а компанията майка на Facebook, Meta, беше глобена с 275 млн. долара през 2022 г. за нарушаване на европейските правила за защита на личните данни.
Междувременно Службата на информационните комисари на Обединеното кралство (ICO) излезе днес с изявление, в което приветства потвърждението на LinkedIn, че е преустановила обучението по такъв модел в очакване на по-нататъшни ангажименти към ICO.
„За да се извлече максимална полза от генеративния изкуствен интелект и възможностите, които той предоставя, е от решаващо значение обществото да може да се довери, че правата на неприкосновеност на личния живот ще бъдат спазвани от самото начало“, заяви в изявление изпълнителният директор на ICO, отговарящ за регулаторния риск, Стивън Алмънд. „Доволни сме, че LinkedIn е отразила опасенията, които изразихме относно нейния подход за обучение на модели на генеративен ИИ с информация, свързана с нейните потребители в Обединеното кралство.“
Независимо от географското положение си струва да се отбележи, че в миналото фирмите са били предупреждавани да не използват данни за клиенти за целите на обучението на модели на GenAI. През август 2023 г. комуникационната платформа Zoom се отказа от плановете си да използва клиентско съдържание за обучение на ИИ, след като клиентите изразиха загриженост относно начина, по който тези данни могат да бъдат използвани. През юли стартъпът за интелигентни велосипеди за тренировки Peloton беше ангажиран в съдебно дело, в което се твърди, че компанията неправомерно е използвала данни, събрани от чатове за обслужване на клиенти, за обучение на модели с изкуствен интелект.
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.