Търсене
Close this search box.

Новият GPT Store на OpenAI може да носи рискове за сигурността на данните

Разработчиците на персонализирани GPT от трети страни (най-вече) не могат да виждат чатовете ви, но могат да имат достъп, да съхраняват и потенциално да използват някои други видове лични данни, които споделяте.

Нов вид магазин за приложения за ChatGPT може да изложи потребителите на злонамерени ботове и на легитимни такива, които изтеглят данните им към несигурни външни места.

Бързото нарастване на популярността на ChatGPT, съчетано с достъпността на ранните модели на GPT с отворен код, широко разпространените джейлбрейкове и още по-креативните заобикаляния, доведоха до разпространение на персонализирани модели на GPT (легитимни и злонамерени) през 2023 г. Досега те бяха споделяни и ползвани от отделни майстори, разпръснати из различни краища на интернет.

Стартиралият на 10 януари   GPT Store позволява на абонатите на OpenAI да откриват и създават персонализирани ботове (просто „GPT“) на едно място. Но това, че са под шапката на OpenAI, не означава непременно, че те ще осигуряват същите нива на сигурност и поверителност на данните, както оригиналният ChatGPT.

„Едно нещо беше, когато данните ви отиваха в OpenAI, но сега се разширявате в екосистема на трета страна“, предупреждава Аластър Патерсън, главен изпълнителен директор на Harmonic Security, който написа публикация в блога си по темата на 10 януари. „Къде се оказват вашите данни? Кой знае в този момент?“

Изглежда и се държи като ChatGPT, но не е ChatGPT

OpenAI не е избегнала своя дял от инциденти със сигурността, но оградената градина на ChatGPT вдъхва доверие на потребителите, които обичат да споделят лична информация с роботи.

Потребителският интерфейс за GPT от магазина на GPT е същият като този на патентования модел. Това предимство на потребителското изживяване обаче е потенциално измамно, що се отнася до сигурността.

Патерсън „си игра с него вчера за малко. Това е все едно да взаимодействате с ChatGPT както обикновено – това е същата обвивка – но всъщност данните, които въвеждате в този интерфейс, могат да бъдат изпратени на всяка трета страна там, с оглед на някаква конкретна употреба. Какво ще правят те с тези данни? След като бъдат изпратени, това зависи изцяло от тях.“

Не всички ваши данни са достъпни за разработчиците на тези ботове, които са трети страни. Както OpenAI разяснява в своите често задавани въпроси за поверителността на данните, самите чатове до голяма степен ще бъдат защитени: „Засега конструкторите няма да имат достъп до конкретни разговори с техните GPT, за да се гарантира поверителността на потребителите. Въпреки това OpenAI обмисля бъдещи функции, които биха предоставили на разработчиците механизми за анализ и обратна връзка, за да подобрят своите GPT, без да се нарушава неприкосновеността на личния живот.“

Интегрираните в API функционалности обаче са различна история, тъй като „това включва споделяне на части от вашите разговори с трета страна – доставчик на API, която не е обект на ангажиментите на OpenAI за поверителност и сигурност. Създателите на GPT могат да определят API, които да бъдат извикани. OpenAI не проверява независимо практиките за поверителност и сигурност на доставчика на API. Използвайте API само ако имате доверие на доставчика.“

„Ако бях нападател, можех да създам приложение, което да ви насърчава да качвате документи, презентации, код, PDF файлове, и то да изглежда сравнително доброкачествено. То дори би могло да ви насърчи да публикувате данни за клиенти, интелектуална собственост или други чувствителни материали, които след това да използвате срещу служители или компании“, твърди Патерсън.

Освен това, тъй като компанията планира да печели пари на базата на ангажираност, нападателите може да се опитат да разработят пристрастяващи предложения, които да прикриват тяхната злонамереност. „Ще бъде интересно дали този модел на монетизация ще доведе до появата на някои лоши приложения“, казва той.

Повече приложения, повече проблеми

OpenAI не е първата компания с магазин за приложения. Въпросът обаче е дали контролът в него е толкова строг, колкото в Apple, Google и други.

Компанията твърди, че за два месеца, откакто OpenAI е въвела персонализираните GPT, членовете на общността вече са създали над 3 милиона нови бота. „Изглежда, че процесът на проверка за пускане на приложение на този пазар е много лек“, казва Патерсън.

В изявление за Dark Reading, представител на OpenAI каза: „За да помогнем да се гарантира, че GPT се придържат към нашите политики, ние създадохме нова система за преглед в допълнение към съществуващите мерки за безопасност, които сме вградили в нашите продукти. Процесът на преглед включва както човешки, така и автоматичен преглед. Потребителите също така могат да докладват за GPT.“

Въпреки опасенията си относно процеса на проверка, Патерсън признава, че един от потенциалните плюсове от създаването на магазина за приложения е, че той може да вдигне летвата за приложенията на трети страни. „Веднага след появата на ChatGPT се появиха множество приложения от трети страни за основни функции като чат с PDF файлове и уебсайтове, често с лоша функционалност и съмнителни мерки за сигурност и поверителност“, казва той. „Една от надеждите за магазина за приложения е най-добрите от тях да изплуват на върха и да бъдат по-лесно откриваеми за потребителите.“

Патерсън казва, че това не означава, че приложенията непременно ще бъдат сигурни. „Но бих се надявал, че най-популярните от тях може да започнат да се отнасят сериозно към защитата на данните, за да бъдат по-успешни“, добавя той.

 

Източник: DARKReading

Подобни публикации

18 април 2024

Вариант на LockBit 3.0 генерира персонализиран,...

Изследователите на Kaspersky са открили новия вариант, след като са...
18 април 2024

Групата "Sandworm" е основното звено за киберат...

Но дори и да се е фокусирала върху това, сложната група за заплахи ...
18 април 2024

Apple предупреждава потребителите в 150 държави...

В ново уведомление за заплахи Apple посочва доставчика на Pegasus N...
17 април 2024

Приложението Copilot на Windows Server е добаве...

Microsoft твърди, че новото приложение Copilot, погрешно добавено в...
17 април 2024

Последни тенденции при зловредния софтуер

В днешната дигитална ера киберсигурността се превърна в постоянна г...
17 април 2024

FTC налага глоби на стартъпа за психично здраве...

Федералната търговска комисия на САЩ (FTC) разпореди на компанията ...
17 април 2024

BMC на Intel и Lenovo съдържат непоправен недос...

Нови открития на Binarly показват, че пропуск в сигурността, засяга...
Бъдете социални
Още по темата
06/04/2024

Abstract Security въвежда A...

Задвижваната от изкуствен интелект платформа за...
25/03/2024

ООН прие резолюция за гара...

В четвъртък Общото събрание одобри първата...
22/03/2024

Клиентите на AWS ще могат д...

AWS вече ще предлага базирани на...
Последно добавени
18/04/2024

Вариант на LockBit 3.0 гене...

Изследователите на Kaspersky са открили новия...
18/04/2024

Групата "Sandworm" е основн...

Но дори и да се е...
18/04/2024

Apple предупреждава потреби...

В ново уведомление за заплахи Apple...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!