ChatGPT за iPhone има сериозни проблеми с поверителността

Компанията OpenAI, която стои зад ChatGPT, наскоро пренесе своя бот с изкуствен интелект на телефоните с приложението ChatGPT за iPhone. Мобилната версия на чатбота вече се изкачи в класациите и се превърна в едно от най-популярните безплатни приложения в App Store в момента. Преди обаче да се впуснете с главата напред в приложението, внимавайте да не станете твърде близки с бота и да не изложите на риск личните си данни.

Досега в магазините за приложения се появяваха множество „самозвани“ приложения, които се опитваха да се възползват от бума на генеративния изкуствен интелект, така че е логично OpenAI да иска да пусне на бял свят свое собствено приложение.

Официалното приложение е безплатно (платената версия на ChatGPT се поддържа в приложението, но не е необходимо да я използвате). Това е огромен плюс, като се има предвид, че други варианти на приложения за чатботове с изкуствен интелект на пазара изискват седмична абонаментна такса, което ги прави супер скъпи, ако не и откровени измами. Можете също така да „говорите“ с ChatGPT, като използвате преобразуване на речта в текст, което е много логично за продукт с разговорен ИИ.

Приложението за iOS е свързано с изричен компромис, за който потребителите трябва да знаят. Повечето от нас са наясно с факта, че ChatGPT понякога просто, халюцинира, си измисля неща, така че има много възможности за подобряване на отговорите му – но когато отворите приложението на телефона си, получавате интересно предупреждение за споделяне на лична информация, защото „Анонимизираните чатове могат да бъдат прегледани от нашия AI треньор, за да подобрим нашите системи“.

Политиката за поверителност на OpenAI гласи, че когато „използвате нашите услуги, ние може да събираме лична информация, която е включена във входните данни, качените файлове или обратната връзка, която предоставяте“. Това на практика означава, че ако зададете на ChatGPT въпроси, които съдържат някаква лична информация (четете: факти за вас, които не бихте искали да споделяте с жива душа), тя ще бъде изпратена на OpenAI и може да бъде прочетена от човешки рецензент, което е голям проблем.

Защо е важно?

Компанията твърди, че разговорите се анонимизират, преди да бъдат видени от хора, но това премахва само идентифициращата информация от метаданните на файла, а не от действителното съдържание на подканата ви. Така че, ако използвате ChatGPT за неща, като например помощ при проблеми с гнева, като безопасно място за отдушник, за търсене на съвет или за редактиране и подобряване на лични документи и текстове, всички те се изпращат – и вероятно се разглеждат от – хора в OpenAI.

Така че нямате представа дали OpenAI действително чете вашите разговори и нямате възможност да се откажете. Компанията няма как да прочете всеки разговор от всеки потребител, но това е нещо, което трябва да имате предвид, докато продължавате да използвате приложението.

Тъй като потребителите вече могат да получат достъп до бота на преносимите си устройства (а не само на компютрите си), е по-вероятно да го изтеглят и да го използват повече през деня, като му задават въпроси от приятели или семейство или се позовават на нещата, които виждат и с които взаимодействат ежедневно. Това е съвсем различно преживяване от това да седнете и да си поиграете с ChatGPT на лаптопа си и със сигурност увеличава вероятността потребителите да разкрият повече лична информация, отколкото искат.

Разбира се, не твърдим, че ChatGPT ви шпионира и краде цялата ви информация по нечисти или съмнителни причини, но е разумно да ви предупредим какво поставяте в чатовете си с бота. Изкуственият интелект е все още развиваща се технология и към нея трябва да се отнасяме предпазливо, докато всички не се адаптираме и не се запознаем с наличието на тези чатботове в живота ни. Ако основателят на OpenAI води кампания за регулиране на собствения си продукт, останалите определено трябва да действаме предпазливо.

Източник: По материали от Интернет

Подобни публикации

5 декември 2023

СМС измамите - как да се предпазим

Получавали ли сте някога нежелано текстово съобщение, което обещава...
4 декември 2023

Ирански хакери превземат контролери на водни съ...

Критичната инфраструктура в няколко американски щата може да е била...
4 декември 2023

Рансъмуерът е безмилостен: какво можете да напр...

Не само, че броят на рансъмуерите се увеличава, но този вид зловред...
3 декември 2023

Свалянето на Qakbot: Смекчаване на последиците ...

Министерството на правосъдието на САЩ и ФБР наскоро си сътрудничиха...
2 декември 2023

Владимир Дунаев е осъден за създаването на злов...

Министерството на правосъдието на САЩ обяви, че руски гражданин е п...
2 декември 2023

Клиентите на онлайн туристическата агенция Book...

Една от най-големите онлайн туристически агенции в света – Booking....
2 декември 2023

Националната ядрена лаборатория на Айдахо е бил...

Националната лаборатория на Айдахо (INL), една от 17-те национални ...
Бъдете социални
Още по темата
29/11/2023

Amazon планира да обучи 2 м...

Amazon обяви ангажимента си за повишаване...
17/11/2023

ChatGPT претърпя DDoS атака

Популярното приложение за генеративен изкуствен интелект...
14/11/2023

GitLab Duo Chat: Какво мога...

GitLab обяви пускането на нов асистент...
Последно добавени
05/12/2023

СМС измамите - как да се пр...

Получавали ли сте някога нежелано текстово...
04/12/2023

Ирански хакери превземат ко...

Критичната инфраструктура в няколко американски щата...
04/12/2023

Рансъмуерът е безмилостен: ...

Не само, че броят на рансъмуерите...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!