Samsung демонстрира впечатляваща мощ на малките ИИ модели, показвайки, че не винаги размерът е решаващ. В ново изследване на Samsung SAIT AI Lab, ръководено от старши изследователката Алексия Жоликьор-Мартиньо, само седеммилионен модел успява да надмине системи като DeepSeek, o3-mini и Gemini 2.5 Pro при решаването на логически пъзели, судоку и лабиринти.
Малък, но гениален: Tiny Recursion Model (TRM)
Новият модел, наречен Tiny Recursion Model (TRM), съдържа едва 7 милиона параметъра – в пъти по-малко от съвременните големи езикови модели, които разполагат със стотици милиарди или дори трилиони параметри.
Въпреки това TRM постига резултати, сравними с водещите LLM системи, като показва, че интелигентният дизайн може да замени мащаба.
Резултатите: „по-малкото“ се оказва „повече“
В бенчмарка ARC-AGI-1, който измерва способността на ИИ да решава пъзели, лесни за хората, но трудни за машините, TRM постига 45% успеваемост. Това е почти колкото GPT-5 (Low) и по-добро представяне от Gemini 2.5 Pro и Claude Opus 4.
В по-трудния ARC-AGI-2, оценяващ адаптивността и ефективността, моделът отбелязва 8%, като отново надминава водещите комерсиални системи.
Но истинската сила на TRM се проявява при разходите – за изпълнение на една и съща задача цената е само част от стотинка, докато големите LLM модели изискват между 0.25 и 1 долар за аналогичен резултат.
Изследователката: „Заложихме на интелигентност, не на размер“
„Идеята, че трябва да се разчита на огромни и скъпо обучени модели, за да се решават трудни задачи, е капан,“ казва Жоликьор-Мартиньо.
„С рекурсивно разсъждение се оказва, че по-малкото наистина е повече – не винаги е нужно да увеличаваш параметрите, за да получиш интелигентност.“
Как работи Tiny Recursion Model?
TRM използва рекурсивно разсъждение – подход, при който моделът постепенно подобрява собствения си отговор чрез многократни итерации.
-
Първо се генерира начално предположение.
-
След това моделът преразглежда и коригира отговора четири пъти, като всеки път взема предвид предишния въпрос, отговор и логическа обосновка.
Тази техника позволява на TRM да отстранява грешки самостоятелно, без да се нуждае от големи изчислителни ресурси.
Интересното е, че увеличаването на броя слоеве в модела не подобрява резултата – напротив, води до свръхобучение (overfitting) и загуба на способност за обобщение.
Новата посока: ефективен ИИ, а не гигантски
TRM показва, че иновативните алгоритми могат да заменят скъпото мащабиране.
Това изследване поставя под въпрос доминиращия подход в индустрията, който залага на все по-големи модели и огромни тренировъчни набори.
Samsung с този експеримент ясно заявява: бъдещият напредък в изкуствения интелект може да бъде по-умен, а не по-голям.









