Търсене
Close this search box.

Ян Ле Кун: LLM никога няма да достигнат нивото на човешката интелигентност

Няма как да избегнете шума около изкуствения общ интелект. Почти не минава ден без ново заглавие за концепцията, която предвижда компютърни системи да надминават хората в различни когнитивни задачи.

Само през последния месец трио технологични светила добавиха нови прокламации. Главният изпълнителен директор на Nvidia Дженсън Хуанг предположи, че AGI ще се появи до пет години. Бен „бащата на AGI“ Гьорцел прогнозира едва три години. Илон Мъск обикновено прави най-смелата прогноза за повратната точка: краят на 2025 г.

Все пак не всички са толкова оптимистично настроени. Един от забележителните скептици е Ян ЛеКун, главен учен по изкуствен интелект на Meta и носител на престижната награда „Тюринг“.

Често определян като един от тримата „кръстници на ИИ“, ЛеКун стига дотам да твърди, че „няма такова нещо като AGI“, защото „човешкият интелект не е близо до общия“. Французинът предпочита да очертае пътя към „ИИ на човешко ниво“.

По време на събитие във вторник в Лондон – водещият инженерен център на Meta извън САЩ – ЛеКун заяви, че дори това остава далечна цел.

Той посочи четворка от когнитивни предизвикателства: разсъждаване, планиране, постоянна памет и разбиране на физическия свят.

„Това са четири основни характеристики на човешкия интелект – а също и на животинския интелект, в този смисъл – които настоящите системи за изкуствен интелект не могат да изпълняват“, каза той.

Без тези възможности приложенията на ИИ остават ограничени и предразположени към грешки. Автономните превозни средства все още не са безопасни за обществените пътища. Домашните роботи се борят с основните домакински задължения. Нашите интелигентни асистенти могат да изпълняват само основни задачи.

Тези интелектуални недостатъци са особено видими при големите езикови модели (LLM). Според ЛеКун те са силно ограничени от зависимостта си от една форма на човешкото знание: текста.

„Лесно се заблуждаваме, че те са интелигентни поради свободното им боравене с езика, но всъщност тяхното разбиране на реалността е много повърхностно“, казва той.

„Те са полезни, в това няма съмнение. Но по пътя към интелигентността на човешкото ниво, LLM е по същество отбивка, разсейване, задънена улица.“

Защо магистрите по право не са толкова умни, колкото изглеждат

Подобни на LLaMA на Meta, GPT-3 на OpenAI и Bard на Google се обучават на огромни количества данни. Според Лекун на човек ще му трябват около 100 000 години, за да прочете целия текст, погълнат от водещ LLM. Но това не е основният ни метод на обучение.

Ние консумираме много повече информация чрез взаимодействието си със света. ЛеКун изчислява, че едно типично четиригодишно дете е видяло 50 пъти повече данни от най-големите учени в света.

„По-голямата част от човешкото знание всъщност не е език, така че тези системи никога няма да могат да достигнат интелигентност на човешко ниво – освен ако не промените архитектурата“, казва ЛеКун.

Естествено, 63-годишният човек има алтернативна архитектура. Той я нарича „обективно управляван изкуствен интелект“.

Цели на интелигентността

Системите на ИИ, управлявани от целите, са създадени, за да изпълняват конкретни цели, поставени от хората.

Вместо да бъдат отглеждани на диета с чист текст, те се запознават с физическия свят чрез сензори и обучение по видео данни.

Резултатът е „модел на света“, който показва въздействието на действията. След това всички потенциални промени се актуализират в паметта на системата.

Каква би била разликата, например, ако един стол бъде бутнат вляво или вдясно на стаята? Чрез учене чрез опит крайните състояния започват да стават предсказуеми. В резултат на това машините могат да планират стъпките, необходими за изпълнението на различни задачи.

ЛеКун е тихо уверен в победата на машините

„В крайна сметка машините ще надминат човешкия интелект… това обаче ще отнеме известно време“, казва той. „Това не е просто зад ъгъла – и със сигурност не е следващата година, както каза нашият приятел Илон“.

 

Източник: e-security.bg

Подобни публикации

18 юни 2024

Koсмосът: Последната граница за кибератаки

Неспособността да си представим – и да се подготвим за –...
18 юни 2024

Лондонските болници още не могат да се съвземат...

Няколко лондонски болници, които все още не са се справили с кибера...
17 юни 2024

Арестуваха британец от Scattered Spider

22-годишен британски гражданин, за когото се предполага, че е свърз...
17 юни 2024

Adobe с вътрешни проблеми на фона на опасения, ...

Adobe гаси пожар на два фронта заради политиката си за използване н...
17 юни 2024

Потребностите от електроенергия в центровете за...

Новото партньорство на Google с базираната в Невада компания NV Ene...
17 юни 2024

Microsoft поправи безкликова уязвимост в Outlook

Morphisec предупреждава, че една от уязвимостите, които Microsoft о...
Бъдете социални
Още по темата
12/06/2024

Mistral увеличи оценката с...

Френският (и европейски) любимец на GenAI...
01/06/2024

Приложение за генериране на...

Gipy – новооткрита кампания, използваща щам...
31/05/2024

OpenAI сформира нов комитет...

Комитетът се създава в момент, когато...
Последно добавени
18/06/2024

Koсмосът: Последната границ...

Неспособността да си представим – и...
18/06/2024

Лондонските болници още не ...

Няколко лондонски болници, които все още...
17/06/2024

Арестуваха британец от Scat...

22-годишен британски гражданин, за когото се...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!