ChatGPT за iPhone има сериозни проблеми с поверителността

Компанията OpenAI, която стои зад ChatGPT, наскоро пренесе своя бот с изкуствен интелект на телефоните с приложението ChatGPT за iPhone. Мобилната версия на чатбота вече се изкачи в класациите и се превърна в едно от най-популярните безплатни приложения в App Store в момента. Преди обаче да се впуснете с главата напред в приложението, внимавайте да не станете твърде близки с бота и да не изложите на риск личните си данни.

Досега в магазините за приложения се появяваха множество „самозвани“ приложения, които се опитваха да се възползват от бума на генеративния изкуствен интелект, така че е логично OpenAI да иска да пусне на бял свят свое собствено приложение.

Официалното приложение е безплатно (платената версия на ChatGPT се поддържа в приложението, но не е необходимо да я използвате). Това е огромен плюс, като се има предвид, че други варианти на приложения за чатботове с изкуствен интелект на пазара изискват седмична абонаментна такса, което ги прави супер скъпи, ако не и откровени измами. Можете също така да „говорите“ с ChatGPT, като използвате преобразуване на речта в текст, което е много логично за продукт с разговорен ИИ.

Приложението за iOS е свързано с изричен компромис, за който потребителите трябва да знаят. Повечето от нас са наясно с факта, че ChatGPT понякога просто, халюцинира, си измисля неща, така че има много възможности за подобряване на отговорите му – но когато отворите приложението на телефона си, получавате интересно предупреждение за споделяне на лична информация, защото „Анонимизираните чатове могат да бъдат прегледани от нашия AI треньор, за да подобрим нашите системи“.

Политиката за поверителност на OpenAI гласи, че когато „използвате нашите услуги, ние може да събираме лична информация, която е включена във входните данни, качените файлове или обратната връзка, която предоставяте“. Това на практика означава, че ако зададете на ChatGPT въпроси, които съдържат някаква лична информация (четете: факти за вас, които не бихте искали да споделяте с жива душа), тя ще бъде изпратена на OpenAI и може да бъде прочетена от човешки рецензент, което е голям проблем.

Защо е важно?

Компанията твърди, че разговорите се анонимизират, преди да бъдат видени от хора, но това премахва само идентифициращата информация от метаданните на файла, а не от действителното съдържание на подканата ви. Така че, ако използвате ChatGPT за неща, като например помощ при проблеми с гнева, като безопасно място за отдушник, за търсене на съвет или за редактиране и подобряване на лични документи и текстове, всички те се изпращат – и вероятно се разглеждат от – хора в OpenAI.

Така че нямате представа дали OpenAI действително чете вашите разговори и нямате възможност да се откажете. Компанията няма как да прочете всеки разговор от всеки потребител, но това е нещо, което трябва да имате предвид, докато продължавате да използвате приложението.

Тъй като потребителите вече могат да получат достъп до бота на преносимите си устройства (а не само на компютрите си), е по-вероятно да го изтеглят и да го използват повече през деня, като му задават въпроси от приятели или семейство или се позовават на нещата, които виждат и с които взаимодействат ежедневно. Това е съвсем различно преживяване от това да седнете и да си поиграете с ChatGPT на лаптопа си и със сигурност увеличава вероятността потребителите да разкрият повече лична информация, отколкото искат.

Разбира се, не твърдим, че ChatGPT ви шпионира и краде цялата ви информация по нечисти или съмнителни причини, но е разумно да ви предупредим какво поставяте в чатовете си с бота. Изкуственият интелект е все още развиваща се технология и към нея трябва да се отнасяме предпазливо, докато всички не се адаптираме и не се запознаем с наличието на тези чатботове в живота ни. Ако основателят на OpenAI води кампания за регулиране на собствения си продукт, останалите определено трябва да действаме предпазливо.

Източник: По материали от Интернет

Подобни публикации

1 юни 2023

Подробности за Migraine - уязвимост на Apple macOS

Microsoft сподели подробности за вече поправен недостатък в Apple m...

Лов на заплахи в шест стъпки

Откриването на  заплахите, преди те да са ви открили, е от ключово ...
31 май 2023

Уязвимостта в Barracuda е използвана минимум 7 ...

Фирмата за корпоративна сигурност Barracuda разкри във вторник, че ...

Как да избегнете прегарянето в екипа си по кибе...

Въпреки че кибератаките се увеличават през последните години, една ...
30 май 2023

Бели хакери спечелиха 105 000 долара от Sonos One

Няколко недостатъка в сигурността, открити в безжичните високоговор...

Идва ли Windows 12?

Голямата актуализация на Windows 11 за края на тази година, известн...
30 май 2023

Нов хакерски форум пусна данните на 478 000 чле...

База данни за известния хакерски форум RaidForums е изтекла в интер...
30 май 2023

CosmicEnergy е способен да спре електрическата ...

Руски софтуер, който може да изключва (или включва) промишлени маши...
Бъдете социални
Още по темата
26/05/2023

ChatGPT не работи по целия ...

ChatGPT е широко популярен чатбот с...
22/05/2023

BT ще съкрати 55 хил. работ...

Телекомуникационният оператор се стреми да стане...
20/05/2023

3 начина, по които хакерите...

Тъй като ChatGPT се използва все...
Последно добавени
01/06/2023

Подробности за Migraine - у...

Microsoft сподели подробности за вече поправен...
01/06/2023

Лов на заплахи в шест стъпки

Откриването на  заплахите, преди те да...
31/05/2023

Уязвимостта в Barracuda е и...

Фирмата за корпоративна сигурност Barracuda разкри...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!