Нов етап в конфликта между правото и ИИ
В исторически прецедент Министерството на вътрешната сигурност на САЩ (DHS) е получило федерална заповед за обиск, задължаваща OpenAI да предостави потребителски промптове (въведени заявки в чатбота). Това е първият известен случай, при който съдебна власт официално изисква подобни данни от компания, разработваща генеративен ИИ, и поставя въпроса за бъдещето на личните данни и дигиталната неприкосновеност в ерата на ИИ.
Заповедта е свързана с разследване на детска експлоатация в тъмната мрежа, при което заподозрян администратор е споменал, че използва ChatGPT. В резултат DHS е изискало от OpenAI пълна информация за акаунта, включително заявките, които потребителят е въвеждал.
OpenAI е изпълнила съдебното разпореждане, като е предала електронна таблица с данни на разследващите, съобщава Forbes. Макар впоследствие органите да не са се нуждаели от информацията за идентификацията на лицето, случаят създава нов правен стандарт, при който потребителските промптове могат да се третират като доказателства.
Промптовете като правно доказателство
По силата на Федералните правила за гражданско производство на САЩ, страните по делото имат право да изискват всяка информация, която е „релевантна и не е защитена от привилегия“. Това означава, че текстовете, въвеждани в ChatGPT или други платформи като Gemini и Claude, могат да бъдат обект на съдебно изискване, ако се прецени, че имат отношение към делото.
„Виждаме как съдебната система започва да изгражда верига на доказателства за мисълта, защото тези данни отразяват намеренията на човека,“ коментира Джъстин Ендрес, директор по информационна сигурност в Seclore. Той предупреждава, че навлизаме в етап, при който съдилищата няма да питат само „кой е написал промпта“, а и кой е упълномощил ИИ агентите да действат по този начин.
ИИ и дилемата на цифровия суверенитет
Според експертите случаят е само началото на глобален дебат за юрисдикцията и границите на данните, особено при нарастващото използване на автономни ИИ агенти. Ако например европейски гражданин използва американски ИИ, чиито данни се съхраняват в САЩ, това може да доведе до нарушение на европейските норми за защита на личните данни (GDPR).
Ендрес прогнозира, че ще се появят национални или „суверенни“ архитектури на ИИ, при които данните на потребителите няма да напускат съответната юрисдикция. Европейският съюз вероятно ще поведе процеса, докато САЩ все още не разглеждат сериозно този проблем.
„ИИ, който забравя“ – нова посока за защита на данните
За да се избегнат подобни правни рискове, експертите предлагат ИИ платформите да бъдат проектирани така, че да изтриват потребителските сесии по подразбиране, след приключване на взаимодействието. Това би било аналогично на ситуация, в която асистент унищожава бележките си след среща – освен ако няма законово основание да ги запази.
Ендрес подчертава, че повечето компании и потребители изобщо не мислят за сигурността и поверителността на своите промптове, което в бъдеще може да доведе до сериозни правни последствия.
Нова ера на „правопригоден“ срещу „първичен по поверителност“ ИИ
След този случай може да се появят две категории ИИ услуги:
- „Law-enforcement compliant“ – които пазят и индексират данните с цел съдействие на правоохранителните органи;
- „Privacy-first“ – които криптират или локално анонимизират сесиите по подразбиране.
Това разделение може да определи бъдещето на пазара, тъй като балансът между иновация, сигурност и законност става все по-труден за постигане.









