Apple направи публично достъпна своята виртуална среда за научни изследвания (Virtual Research Environment – VRE) Private Cloud Compute (PCC), позволявайки на изследователската общност да провери и потвърди гаранциите за поверителност и сигурност на предложението.
PCC, който Apple представи по-рано този юни, се рекламира като „най-усъвършенстваната архитектура за сигурност, внедрявана някога за изчисления в облака с изкуствен интелект в голям мащаб“. С новата технология идеята е да се разтоварят сложните изчислителни заявки на Apple Intelligence към облака по начин, който не жертва неприкосновеността на личния живот на потребителите.
Apple заяви, че кани „всички изследователи в областта на сигурността и неприкосновеността на личния живот – или всеки, който има интерес и техническо любопитство – да научи повече за PCC и да извърши собствена независима проверка на нашите твърдения“.
За да стимулира допълнително научните изследвания, производителят на iPhone заяви, че разширява програмата Apple Security Bounty, за да включи PCC, като предлага парични възнаграждения от 50 000 до 1 000 000 долара за установени в нея уязвимости в сигурността.
Това включва недостатъци, които могат да позволят изпълнението на злонамерен код на сървъра, и експлойти, способни да извлекат чувствителни данни на потребителите или информация за техните заявки.
VRE има за цел да предложи набор от инструменти, които да помогнат на изследователите да извършат своя анализ на PCC от Mac. Той е снабден с виртуален процесор Secure Enclave Processor (SEP) и използва вградената в macOS поддръжка за паравиртуализирана графика, за да даде възможност за правене на изводи.
Apple също така съобщи, че прави изходния код, свързан с някои компоненти на PCC, достъпен чрез GitHub, за да улесни по-задълбочения анализ. Това включва CloudAttestation, Thimble, splunkloggingd и srd_tools.
„Проектирахме Private Cloud Compute като част от Apple Intelligence, за да направим изключителна крачка напред за защитата на личните данни в изкуствения интелект“, заяви компанията от Купертино. „Това включва осигуряването на проверима прозрачност – уникално свойство, което го отличава от другите сървърни подходи за ИИ.“
Разработката идва в момент, когато по-широките изследвания в областта на генеративния изкуствен интелект (ИИ) продължават да разкриват нови начини за запечатване на големи езикови модели (LLM) и получаване на непреднамерени резултати.
По-рано тази седмица Palo Alto Networks подробно описа техника, наречена Deceptive Delight (измамна наслада), която включва смесване на злонамерени и доброкачествени заявки заедно, за да се измамят чатботовете с ИИ да заобиколят защитните си стени и периметрови защити, като се възползват от ограничената им „продължителност на вниманието“.
Атаката изисква минимум две взаимодействия и работи, като първо се иска от чатбота да свърже логически няколко събития – включително ограничена тема (напр. как да се направи бомба) – и след това се иска от него да развие подробностите за всяко събитие.
Изследователите демонстрираха и т.нар. атака ConfusedPilot, която е насочена към системи за изкуствен интелект, базирани на Retrieval-Augmented Generation (RAG), като Microsoft 365 Copilot, чрез отравяне на средата за данни с привидно безобиден документ, съдържащ специално създадени низове.
„Тази атака позволява манипулиране на отговорите на ИИ просто чрез добавяне на злонамерено съдържание към всички документи, към които системата за ИИ може да се позове, което потенциално може да доведе до широко разпространена дезинформация и компрометиране на процесите на вземане на решения в организацията“, казват от Symmetry Systems.
Отделно от това е установено, че е възможно да се манипулира изчислителният граф на модел за машинно обучение, за да се поставят „безкодови, скрити“ задни врати в предварително обучени модели като ResNet, YOLO и Phi-3, техника с кодово име ShadowLogic.
„Задните врати, създадени чрез тази техника, ще се запазят чрез фина настройка, което означава, че моделите на фондацията могат да бъдат отвлечени, за да задействат определено от атакуващия поведение във всяко приложение надолу по веригата, когато се получи задействащ вход, което прави тази техника за атака риск за веригата за доставки на изкуствен интелект с голямо въздействие“, заявиха изследователите от Hidden Layer Еоин Уикенс, Касимир Шулц и Том Бонер.
„За разлика от стандартните софтуерни задни врати, които разчитат на изпълнение на злонамерен код, тези задни са вградени в самата структура на модела, което ги прави по-трудни за откриване и смекчаване.“
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.