Ако 2023 г. и 2024 г. бяха годините на проучване, шумотевица и вълнение около ИИ, то 2025 г. (и 2026 г.) ще бъдат годините, в които организациите ще започнат да се фокусират върху конкретни случаи на употреба за най-продуктивно внедряване на ИИ и, което е по-важно, ще разберат как да прилагат предпазни огради и управление, така че екипите по сигурността да го възприемат като по-малък риск и по-голяма полза за организацията.
Не ме разбирайте погрешно, организациите вече започват да внедряват ИИ в широк спектър от бизнес подразделения:
Въпреки това, подобно на други технологии, които са се появили преди това, като автоматизацията на облака и киберсигурността, в момента ИИ не е достатъчно зрял. Един от най-известните модели за измерване на технологичната зрялост е цикълът на Gartner. Той проследява инструментите през първоначалния „спусък на иновациите“, през „пика на завишените очаквания“ до „коритото на разочарованието“, последвано от „склона на просветлението“ и накрая достигане на „платото на продуктивността“.
Възприемайки този модел, оприличавам ИИ на шумотевицата, на която станахме свидетели около „облака“ преди десетилетие, когато всички бързаха да мигрират към „облака“ – по онова време универсален термин, който имаше различно значение за различните хора. „Облакът“ премина през всички етапи на цикъла на шумотевицата и ние продължаваме да откриваме все по-специфични случаи на употреба, върху които да се съсредоточим за постигане на най-голяма производителност. В днешно време мнозина вече мислят как да „оразмерят“ облака си спрямо своята среда. В някои случаи те преместват част от инфраструктурата си обратно към локални или хибридни/многооблачни модели.
Точно сега виждаме ИИ в тази фаза на „пик на завишените очаквания“ и прогнозираме, че той ще се потопи в „коритото на разочарованието“, където организациите ще осъзнаят, че той не е сребърният куршум, който са смятали, че ще бъде. Всъщност вече има признаци на цинизъм, тъй като лицата, вземащи решения, са бомбардирани с маркетингови послания от доставчиците и се затрудняват да разграничат кое е истински случай на употреба и кое не е подходящо за тяхната организация. Това е тема, която се появи и при съзряването на автоматизацията на киберсигурността – необходимостта да се определи правилният случай на използване на технологията, а не да се опитваме да я прилагаме повсеместно.
При все това ИИ е и ще продължи да бъде полезен инструмент. В днешния икономически климат, когато бизнесът се адаптира към новата нормална ситуация на непрекъснати промени, ИИ – заедно с автоматизацията – може да бъде функция за мащабиране на екипите по киберсигурност, която им позволява да се променят и да увеличават мащаба си, за да се защитават от все по-разнообразни атаки. Всъщност нашето неотдавнашно проучване сред 750 професионалисти в областта на киберсигурността установи, че 58% от организациите вече използват ИИ в киберсигурността до известна степен. Въпреки това очакваме, че преди да стане наистина продуктивен, ИИ в киберсигурността ще премине през същия цикъл на приемане и предизвикателства, които изпитват „облакът“ и автоматизацията, включително проблеми с доверието и техническото внедряване.
Страхът, несигурността и съмненията, свързани с ИИ, са основателни. Той би могъл да има значителен вреден ефект, ако се използва неправилно или ако моделът на ИИ не прави това, което трябва. Този страх е сходен с възгледите на специалистите по киберсигурност относно автоматизацията на киберсигурността във времето. По-ранните проучвания, които проведохме за приемането на автоматизацията, показаха липса на доверие в резултатите от автоматизацията, но последното проучване, което току-що публикувахме, показва по-голямо доверие с напредването на автоматизацията.
Ето защо много организации създават ръководни комитети, за да разберат по-добре използването на ИИ в различните бизнес отдели. Има и регулации, които ще влязат в сила, като например Законът на ЕС за ИИ, който представлява цялостна правна рамка, определяща правилата за разработване и използване на ИИ.
Това е основен въпрос за ръководителите в областта на сигурността – да се установи кой използва инструментите на ИИ и за какво ги използва. Какви фирмени данни споделят с външни инструменти, защитени ли са тези инструменти и дали са толкова невинни, колкото изглеждат? Например, дали асистентите за код на GenAI, които се използват от разработчиците, връщат лош код и внасят риск за сигурността? Съществуват и аспекти като Dark AI, който включва злонамерено използване на технологиите на ИИ за улесняване на кибератаки, халюцинации и отравяне на данни, когато се въвеждат злонамерени данни за манипулиране на кода, което може да доведе до вземане на лоши решения.
В тази връзка проучване (PDF) на Splunk сред главните директори по информационна сигурност (CISOs) установи, че 70% от тях смятат, че генеративният AI може да даде на кибернетичните противници повече възможности за извършване на атаки. Със сигурност преобладаващото мнение е, че ИИ е от полза повече за нападателите, отколкото за защитниците.
Ето защо нашият подход към ИИ е насочен към възприемане на балансирана гледна точка. ИИ със сигурност няма да реши всеки проблем и той трябва да се използва като автоматизация, като част от съвместна комбинация от хора, процеси и технологии. Просто не можете да замените човешката интуиция с ИИ, а много нови регулации за ИИ предвиждат запазване на човешкия надзор, така че става въпрос за намиране на правилния баланс и използване на технологията в правилните сценарии за правилния случай на употреба и получаване на резултатите, от които се нуждаете.
С поглед към бъдещето, тъй като компаниите разбират по-добре случаите на използване на ИИ, той ще се развие от обикновения Gen AI, за да включи и допълнителни технологии. Към днешна дата генеративните приложения на ИИ в преобладаващата си част са фокусирани върху разминаването на информацията. Това означава, че те създават ново съдържание въз основа на набор от инструкции. Вярваме, че с развитието на ИИ ще видим повече приложения на ИИ, които сближават информацията. С други думи, те ще ни показват по-малко съдържание чрез синтезиране на наличната информация, което специалистите в бранша сполучливо наричат „SynthAI“. Това ще доведе до промяна на функцията на стъпката в стойността, която ИИ може да предостави – ще го обсъдя в бъдеща статия.
Aвтор: Марк Соломон, главен маркетинг директор в ThreatQuotient
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.