Пуснати са ChatGPT-4 и безброй други инструменти за изкуствен интелект

Революцията на изкуствения интелект (ИИ) е пред нас! Следващата итерация на инструмента ChatGPT на OpenAI – ChatGPT-4 – беше пусната през март и донесе много подобрения в сравнение с ChatGPT-3. Като начало ChatGPT-4 съдържа повече параметри от своя предшественик. ChatGPT-3 имаше 175 милиарда параметъра. Така че ChatGPT-4 вероятно съдържа някъде около 200 милиарда параметри, но това е само обосновано предположение. Няма стандартни спецификации, които OpenAI да предоставя за броя на параметрите в ChatGPT-4. Встрани от това, параметрите са конфигурационни променливи, които определят езиковия модел. Колкото повече са параметрите, толкова повече са аспектите, по които инженерите могат да обучават модела.

Както всяка по-нова технология, някои ще измислят начини да я използват за подобряване на човечеството, а други ще се опитват да я използват за злонамерени цели. Например ChatGPT-4 постига резултати в 90-ия персентил на единния изпит за адвокати. Някои ще търсят начини да използват тази технология, за да си помогнат в обучението, а други ще видят как могат да я използват, за да мамят на тестовете. Всичко зависи от намеренията. Разбира се, тъй като това е новинарска публикация за киберсигурността, ще си представим начините, по които ChatGPT-4 и други инструменти с изкуствен интелект могат да бъдат използвани от нападателите, за да затруднят живота на всички.

Най-разпространените и повсеместни атаки с изкуствен интелект вероятно ще се отнасят до социалния инженеринг, точно както и сега в настоящия пейзаж на заплахите. Изследователите предупредиха за последиците от Deepfakes и uncanny valley. Това вече не е бъдеще, от което да се страхуваме, а настояще. Например един потребител на Twitter за един час създаде deepfake, който може да заблуди някого, въпреки че не изглежда автентичен. Това е така, защото той го е създал за един час. Представете си, че някой нападател отдели време, за да направи deepfake да изглежда възможно най-автентичен, и използва изкуствен интелект за подправяне на гласа, за да имитира гласа на физическо лице. Помислете за всички атаки със социален инженеринг, за които тази технология може да помогне на нападателите. Нападателите могат дори да подправят обикновени гласови повиквания с помощта на базирания на звук ИИ и да предизвикат хаос. Социалните атаки са разрушителни сега, но вероятно само ще се влошават.

secplicity.org

Подобни

Патент на Meta за ИИ симулации след смъртта променя етиката
16.02.2026
frank_rietsch-phoenix-9733510_640
FDA: Новите правила за носими устройства и ИИ между уелнеса и медицината
16.02.2026
healthcare-9444655_640
Сингулярността има дата? Провокативна прогноза с точен час
16.02.2026
fszalai-wormhole-7770303_640
Технологиите като фронт на сигурността: какво показа МKC 2026
15.02.2026
мсц
ИИ спътниците – утеха или риск за човешкото благополучие?
15.02.2026
robots
NanoLED – следващата граница в миниатюризацията на дисплеите
15.02.2026
aimeev83-bokeh-313993_640

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Изземване на Zamunda, Arena и други торент сайтове
30.01.2026
seizure
Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov
Вишинг измами срещу потребители на Revolut
11.12.2025
revolut

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.