Ян Ле Кун: LLM никога няма да достигнат нивото на човешката интелигентност

Няма как да избегнете шума около изкуствения общ интелект. Почти не минава ден без ново заглавие за концепцията, която предвижда компютърни системи да надминават хората в различни когнитивни задачи.

Само през последния месец трио технологични светила добавиха нови прокламации. Главният изпълнителен директор на Nvidia Дженсън Хуанг предположи, че AGI ще се появи до пет години. Бен „бащата на AGI“ Гьорцел прогнозира едва три години. Илон Мъск обикновено прави най-смелата прогноза за повратната точка: краят на 2025 г.

Все пак не всички са толкова оптимистично настроени. Един от забележителните скептици е Ян ЛеКун, главен учен по изкуствен интелект на Meta и носител на престижната награда „Тюринг“.

Често определян като един от тримата „кръстници на ИИ“, ЛеКун стига дотам да твърди, че „няма такова нещо като AGI“, защото „човешкият интелект не е близо до общия“. Французинът предпочита да очертае пътя към „ИИ на човешко ниво“.

По време на събитие във вторник в Лондон – водещият инженерен център на Meta извън САЩ – ЛеКун заяви, че дори това остава далечна цел.

Той посочи четворка от когнитивни предизвикателства: разсъждаване, планиране, постоянна памет и разбиране на физическия свят.

„Това са четири основни характеристики на човешкия интелект – а също и на животинския интелект, в този смисъл – които настоящите системи за изкуствен интелект не могат да изпълняват“, каза той.

Без тези възможности приложенията на ИИ остават ограничени и предразположени към грешки. Автономните превозни средства все още не са безопасни за обществените пътища. Домашните роботи се борят с основните домакински задължения. Нашите интелигентни асистенти могат да изпълняват само основни задачи.

Тези интелектуални недостатъци са особено видими при големите езикови модели (LLM). Според ЛеКун те са силно ограничени от зависимостта си от една форма на човешкото знание: текста.

„Лесно се заблуждаваме, че те са интелигентни поради свободното им боравене с езика, но всъщност тяхното разбиране на реалността е много повърхностно“, казва той.

„Те са полезни, в това няма съмнение. Но по пътя към интелигентността на човешкото ниво, LLM е по същество отбивка, разсейване, задънена улица.“

Защо магистрите по право не са толкова умни, колкото изглеждат

Подобни на LLaMA на Meta, GPT-3 на OpenAI и Bard на Google се обучават на огромни количества данни. Според Лекун на човек ще му трябват около 100 000 години, за да прочете целия текст, погълнат от водещ LLM. Но това не е основният ни метод на обучение.

Ние консумираме много повече информация чрез взаимодействието си със света. ЛеКун изчислява, че едно типично четиригодишно дете е видяло 50 пъти повече данни от най-големите учени в света.

„По-голямата част от човешкото знание всъщност не е език, така че тези системи никога няма да могат да достигнат интелигентност на човешко ниво – освен ако не промените архитектурата“, казва ЛеКун.

Естествено, 63-годишният човек има алтернативна архитектура. Той я нарича „обективно управляван изкуствен интелект“.

Цели на интелигентността

Системите на ИИ, управлявани от целите, са създадени, за да изпълняват конкретни цели, поставени от хората.

Вместо да бъдат отглеждани на диета с чист текст, те се запознават с физическия свят чрез сензори и обучение по видео данни.

Резултатът е „модел на света“, който показва въздействието на действията. След това всички потенциални промени се актуализират в паметта на системата.

Каква би била разликата, например, ако един стол бъде бутнат вляво или вдясно на стаята? Чрез учене чрез опит крайните състояния започват да стават предсказуеми. В резултат на това машините могат да планират стъпките, необходими за изпълнението на различни задачи.

ЛеКун е тихо уверен в победата на машините

„В крайна сметка машините ще надминат човешкия интелект… това обаче ще отнеме известно време“, казва той. „Това не е просто зад ъгъла – и със сигурност не е следващата година, както каза нашият приятел Илон“.

 

e-security.bg

Подобни

Handala vs Stryker - инцидентът е ограничен до вътрешната Microsoft среда
17.03.2026
Iran-fingerprint
BBC разкрива, че Meta и TikTok са толерирали вредно съдържание
17.03.2026
blue-hand-2228501_640
BreachForums е офлайн след интервенция на CCITIC
17.03.2026
andrzejrembowski-police-4283383_640
Britannica и Merriam-Webster съдят OpenAI за нарушаване на авторски права
17.03.2026
viarami-artificial-intelligence-9569865_640
Meta подписва 5-годишно споразумение с Nebius за до $27 млрд.
17.03.2026
handshake-3100563_640
Илон Мъск преосмисля xAI
17.03.2026
ai-generated-8223753_640

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Изземване на Zamunda, Arena и други торент сайтове
30.01.2026
seizure
Българските торент сайтове продължават да изчезват
27.02.2026
pirate-flag-7541041_640
Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.