Apple отваря изходния код на PCC за изследователи на AI в облака

Apple направи публично достъпна своята виртуална среда за научни изследвания (Virtual Research Environment – VRE) Private Cloud Compute (PCC), позволявайки на изследователската общност да провери и потвърди гаранциите за поверителност и сигурност на предложението.

PCC, който Apple представи по-рано този юни, се рекламира като „най-усъвършенстваната архитектура за сигурност, внедрявана някога за изчисления в облака с изкуствен интелект в голям мащаб“. С новата технология идеята е да се разтоварят сложните изчислителни заявки на Apple Intelligence към облака по начин, който не жертва неприкосновеността на личния живот на потребителите.

Apple заяви, че кани „всички изследователи в областта на сигурността и неприкосновеността на личния живот – или всеки, който има интерес и техническо любопитство – да научи повече за PCC и да извърши собствена независима проверка на нашите твърдения“.

За да стимулира допълнително научните изследвания, производителят на iPhone заяви, че разширява програмата Apple Security Bounty, за да включи PCC, като предлага парични възнаграждения от 50 000 до 1 000 000 долара за установени в нея уязвимости в сигурността.

Това включва недостатъци, които могат да позволят изпълнението на злонамерен код на сървъра, и експлойти, способни да извлекат чувствителни данни на потребителите или информация за техните заявки.

VRE има за цел да предложи набор от инструменти, които да помогнат на изследователите да извършат своя анализ на PCC от Mac. Той е снабден с виртуален процесор Secure Enclave Processor (SEP) и използва вградената в macOS поддръжка за паравиртуализирана графика, за да даде възможност за правене на изводи.

Apple също така съобщи, че прави изходния код, свързан с някои компоненти на PCC, достъпен чрез GitHub, за да улесни по-задълбочения анализ. Това включва CloudAttestation, Thimble, splunkloggingd и srd_tools.

„Проектирахме Private Cloud Compute като част от Apple Intelligence, за да направим изключителна крачка напред за защитата на личните данни в изкуствения интелект“, заяви компанията от Купертино. „Това включва осигуряването на проверима прозрачност – уникално свойство, което го отличава от другите сървърни подходи за ИИ.“

Разработката идва в момент, когато по-широките изследвания в областта на генеративния изкуствен интелект (ИИ) продължават да разкриват нови начини за запечатване на големи езикови модели (LLM) и получаване на непреднамерени резултати.

Сигурност на AI в облака

По-рано тази седмица Palo Alto Networks подробно описа техника, наречена Deceptive Delight (измамна наслада), която включва смесване на злонамерени и доброкачествени заявки заедно, за да се измамят чатботовете с ИИ да заобиколят защитните си стени и периметрови защити, като се възползват от ограничената им „продължителност на вниманието“.

Атаката изисква минимум две взаимодействия и работи, като първо се иска от чатбота да свърже логически няколко събития – включително ограничена тема (напр. как да се направи бомба) – и след това се иска от него да развие подробностите за всяко събитие.

Изследователите демонстрираха и т.нар. атака ConfusedPilot, която е насочена към системи за изкуствен интелект, базирани на Retrieval-Augmented Generation (RAG), като Microsoft 365 Copilot, чрез отравяне на средата за данни с привидно безобиден документ, съдържащ специално създадени низове.

„Тази атака позволява манипулиране на отговорите на ИИ просто чрез добавяне на злонамерено съдържание към всички документи, към които системата за ИИ може да се позове, което потенциално може да доведе до широко разпространена дезинформация и компрометиране на процесите на вземане на решения в организацията“, казват от Symmetry Systems.

Отделно от това е установено, че е възможно да се манипулира изчислителният граф на модел за машинно обучение, за да се поставят „безкодови, скрити“ задни врати в предварително обучени модели като ResNet, YOLO и Phi-3, техника с кодово име ShadowLogic.

„Задните врати, създадени чрез тази техника, ще се запазят чрез фина настройка, което означава, че моделите на фондацията могат да бъдат отвлечени, за да задействат определено от атакуващия поведение във всяко приложение надолу по веригата, когато се получи задействащ вход, което прави тази техника за атака риск за веригата за доставки на изкуствен интелект с голямо въздействие“, заявиха изследователите от Hidden Layer Еоин Уикенс, Касимир Шулц и Том Бонер.

„За разлика от стандартните софтуерни задни врати, които разчитат на изпълнение на злонамерен код, тези задни са вградени в самата структура на модела, което ги прави по-трудни за откриване и смекчаване.“

The Hacker News

Подобни

Кибератака спря интернет достъпа в училища и детски градини в Инвърклайд
25.01.2026
phishing-7487504_640
Кибератака срещу Дрезденските държавни художествени колекции
25.01.2026
man-2590655_640
Край на дългия регулаторен спор около TikTok
23.01.2026
tiktok-privacy
OpenAI влиза в хардуера през втората половина на 2026 г.
23.01.2026
OpenAI-GPT-4
Гръцката полиция разби схема за SMS фишинг от ново поколение
23.01.2026
flag-greece-officially-adopted-first-national-assembly-epidaurus-january-50937798
Централната банка на Иран използва USDT, за да заобикаля санкциите
23.01.2026
181213-iran-hacking

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov
Вишинг измами срещу потребители на Revolut
11.12.2025
revolut
ClickFix кампания атакува хотели и туристически компании в България и ЕС
6.01.2026
Blue_screen_of_death-Maurice_Savage-Alamy

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.