Чатботът Grok, разработен от компанията xAI на Илон Мъск, официално призна за сериозни пропуски в предпазните си механизми, които са довели до генериране и разпространение на изображения с непълнолетни в минимално облекло в социалната мрежа X. Признанието идва след като потребители започнаха масово да споделят екранни снимки, показващи проблемното съдържание в публичния медиен раздел на Grok.
Случаят отново поставя на дневен ред въпроса доколко реално работят защитните механизми на генеративните ИИ системи, особено когато те са директно интегрирани в социални платформи с милиони потребители.
Какво се е случило всъщност
Според официално изявление на Grok, публикувано в X, става дума за изолирани случаи, при които потребители са качвали снимки и са подканяли чатбота да ги „преработи“. В резултат на това са били създадени изображения, които според потребителите нарушават основни етични и правни стандарти.
„Идентифицирахме пропуски в предпазните механизми и работим спешно по отстраняването им“, посочва Grok, като изрично подчертава, че съдържание, свързано със сексуална експлоатация на деца (CSAM), е незаконно и строго забранено.
Признание без детайли
Въпреки сериозността на ситуацията, xAI не предостави конкретна информация как точно са били заобиколени защитите, нито какъв е мащабът на проблема. В отделен отговор към потребител Grok заявява, че повечето подобни случаи могат да бъдат предотвратени чрез по-усъвършенствани филтри и мониторинг, но добавя и ключовата фраза:
„Нито една система не е 100% защитена.“
Това признание, макар и реалистично, повдига сериозен въпрос – достатъчно ли е да приемем подобни инциденти като неизбежни, когато става дума за защита на деца и спазване на закона.
Реакцията на xAI: конфронтация вместо обяснение
Допълнително напрежение внесе и реакцията на xAI към запитване на Reuters. Вместо стандартен коментар или разяснение, компанията отговори лаконично с фразата „Legacy Media Lies“.
Този подход бе възприет от много наблюдатели като отклоняване от отговорност, особено в контекста на чувствителността на темата и очакванията за прозрачност от страна на технологичните лидери.
По-широкият проблем: ИИ в социалните мрежи
Случаят с Grok не е изолиран инцидент, а симптом на по-дълбок структурен проблем – интегрирането на мощни генеративни ИИ инструменти в социални платформи, без достатъчно зрели и тествани механизми за контрол.
Комбинацията от:
-
масов потребителски достъп
-
генеративни визуални възможности
-
недостатъчно строги филтри
-
и публична видимост на съдържанието
създава реален риск от злоупотреби, които не могат да бъдат оправдани с аргумента за „изолирани случаи“.
Вместо заключение
Пропуските в Grok показват, че ИИ системите не са просто технологичен продукт, а социална отговорност. Когато подобни инструменти достигнат мащаба на X, всяка грешка се мултиплицира.
Обещанията за „предстоящи подобрения“ вече не са достатъчни. Въпросът не е дали ИИ ще допусне грешки, а дали компаниите са готови да поемат пълната отговорност за последиците от тези грешки – особено когато са засегнати деца.









