Mалките ИИ модели могат да решават трудни задачи по-добре от гигантите

Samsung демонстрира впечатляваща мощ на малките ИИ модели, показвайки, че не винаги размерът е решаващ. В ново изследване на Samsung SAIT AI Lab, ръководено от старши изследователката Алексия Жоликьор-Мартиньо, само седеммилионен модел успява да надмине системи като DeepSeek, o3-mini и Gemini 2.5 Pro при решаването на логически пъзели, судоку и лабиринти.

Малък, но гениален: Tiny Recursion Model (TRM)

Новият модел, наречен Tiny Recursion Model (TRM), съдържа едва 7 милиона параметъра – в пъти по-малко от съвременните големи езикови модели, които разполагат със стотици милиарди или дори трилиони параметри.
Въпреки това TRM постига резултати, сравними с водещите LLM системи, като показва, че интелигентният дизайн може да замени мащаба.

Резултатите: „по-малкото“ се оказва „повече“

В бенчмарка ARC-AGI-1, който измерва способността на ИИ да решава пъзели, лесни за хората, но трудни за машините, TRM постига 45% успеваемост. Това е почти колкото GPT-5 (Low) и по-добро представяне от Gemini 2.5 Pro и Claude Opus 4.

В по-трудния ARC-AGI-2, оценяващ адаптивността и ефективността, моделът отбелязва 8%, като отново надминава водещите комерсиални системи.

Но истинската сила на TRM се проявява при разходите – за изпълнение на една и съща задача цената е само част от стотинка, докато големите LLM модели изискват между 0.25 и 1 долар за аналогичен резултат.

Изследователката: „Заложихме на интелигентност, не на размер“

„Идеята, че трябва да се разчита на огромни и скъпо обучени модели, за да се решават трудни задачи, е капан,“ казва Жоликьор-Мартиньо.
„С рекурсивно разсъждение се оказва, че по-малкото наистина е повече – не винаги е нужно да увеличаваш параметрите, за да получиш интелигентност.“

Как работи Tiny Recursion Model?

TRM използва рекурсивно разсъждение – подход, при който моделът постепенно подобрява собствения си отговор чрез многократни итерации.

  1. Първо се генерира начално предположение.

  2. След това моделът преразглежда и коригира отговора четири пъти, като всеки път взема предвид предишния въпрос, отговор и логическа обосновка.

Тази техника позволява на TRM да отстранява грешки самостоятелно, без да се нуждае от големи изчислителни ресурси.
Интересното е, че увеличаването на броя слоеве в модела не подобрява резултата – напротив, води до свръхобучение (overfitting) и загуба на способност за обобщение.

Новата посока: ефективен ИИ, а не гигантски

TRM показва, че иновативните алгоритми могат да заменят скъпото мащабиране.
Това изследване поставя под въпрос доминиращия подход в индустрията, който залага на все по-големи модели и огромни тренировъчни набори.

Samsung с този експеримент ясно заявява: бъдещият напредък в изкуствения интелект може да бъде по-умен, а не по-голям.

e-security.bg

Подобни

23- ма спасени от дигитално робство
13.02.2026
redleaf_lodi-power-5508644_640
Ransomware атака срещу A1 Capital в Турция
13.02.2026
nuevo-ransomware
Руски биодронове?
13.02.2026
sandeephanda-homing-pigeon-2727563_640
Anna’s Archive пуска милиони песни от Spotify въпреки иск за $13 трлн.
13.02.2026
pirate-flag-7541041_640
Вълна от напускания разклаща ИИ индустрията
13.02.2026
mohamed_hassan-resignation-6784035_640
Бумът на prediction пазарите носи милиарди
13.02.2026
myshoun-crystal-ball-8392380_640

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Изземване на Zamunda, Arena и други торент сайтове
30.01.2026
seizure
Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Вишинг измами срещу потребители на Revolut
11.12.2025
revolut
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.