Ян Лейке, който ръководеше екипа на OpenAI „Super Alignment“, смята, че трябва да се обърне по-голямо внимание на подготовката за следващото поколение модели на ИИ, включително на неща като безопасност

Бивш ръководител на OpenAI, който подаде оставка от компанията по-рано тази седмица, заяви в петък, че безопасността е „останала на заден план пред лъскавите продукти“ във влиятелната компания за изкуствен интелект.

Ян Лейке, който ръководеше екипа на OpenAI „Super Alignment“ заедно със съосновател на компанията, който също подаде оставка тази седмица, написа в поредица от публикации в платформата за социални медии X, че се е присъединил към базираната в Сан Франциско компания, защото е смятал, че това е най-доброто място за провеждане на изследвания в областта на ИИ.

„От доста време обаче не бях съгласен с ръководството на OpenAI относно основните приоритети на компанията, докато накрая стигнахме до точката на пречупване“, написа Лейке, чийто последен работен ден беше четвъртък.

Изследовател на изкуствения интелект по образование, Лейке заяви, че според него трябва да се обърне по-голямо внимание на подготовката за следващото поколение модели на изкуствения интелект, включително на неща като безопасност и анализ на обществените въздействия на такива технологии. Той заяви, че изграждането на „по-умни от човека машини е по същество опасно начинание“ и че компанията „поема огромна отговорност от името на цялото човечество“.

„OpenAI трябва да се превърне в компания AGI, която се стреми към безопасност“, пише Лейке, използвайки съкратената версия на изкуствен общ интелект – футуристична визия за машини, които са толкова интелигентни, колкото и хората, или поне могат да правят много неща толкова добре, колкото и хората.

Оставката на Лейке дойде, след като съоснователят на OpenAI и главен учен Иля Суцкевер заяви във вторник, че напуска компанията след почти десетилетие. Суцкевер беше един от четиримата членове на борда на директорите, които миналата есен гласуваха за освобождаването на главния изпълнителен директор Сам Алтман – само че бързо го възстановиха. Именно Суцкевер съобщи на Алтман през ноември миналата година, че е уволнен, но по-късно заяви, че съжалява за това.

Суцкевер заяви, че работи по нов проект, който е значим за него, без да предлага допълнителни подробности. Той ще бъде заменен от Якуб Пачоцки като главен учен. Олтман нарече Пачоцки „също така лесно един от най-големите умове на нашето поколение“ и заяви, че е „много уверен, че той ще ни води към бърз и сигурен напредък към нашата мисия да гарантираме, че AGI ще бъде от полза за всички“.

В понеделник OpenAI показа най-новата актуализация на своя модел на изкуствен интелект, който може да имитира човешки каданс във вербалните си отговори и дори може да се опитва да разпознава настроенията на хората.

Associated Press

Източник: По материали от Интернет

Подобни публикации

12 февруари 2025

Deepfake, изкуствен интелект, регулации - опред...

Снощи, 11.02.2025 г., зала ‚Йоханесбург‘ на Полиграфическия комбина...
12 февруари 2025

Несправедливата реалност на киберинцидентите

Неотдавна мой чудесен колега се контузи доста тежко по време на зим...
12 февруари 2025

SAP пуска 21 кръпки за сигурност

Производителят на корпоративен софтуер SAP обяви във вторник пускан...
12 февруари 2025

Intel поправи 374 уязвимости през 2024 г.

През календарната 2024 г. Intel е поправила общо 374 уязвимости в с...
11 февруари 2025

Ключови фигури от Phobos и 8Base са арестувани ...

Координирана международна акция на правоприлагащите органи миналата...
11 февруари 2025

Поведенчески анализ в киберсигурността: Кой има...

Тъй като разходите за нарушаване на сигурността на данните продължа...
11 февруари 2025

120 хил. жертви са компрометирани при атака с р...

В Бейнбридж, щата Джорджия, малката болница Memorial Hospital and M...
11 февруари 2025

Lee Enterprises се възстановява от кибератака

Вестникарската компания очаква разследването да отнеме известно вре...
11 февруари 2025

Над 12 000 защитни стени KerioControl са изложе...

Над дванадесет хиляди екземпляра на защитната стена GFI KerioContro...
Бъдете социални
Още по темата
12/02/2025

Deepfake, изкуствен интелек...

Снощи, 11.02.2025 г., зала ‚Йоханесбург‘ на...
12/02/2025

Intel поправи 374 уязвимост...

През календарната 2024 г. Intel е...
11/02/2025

Поведенчески анализ в кибер...

Тъй като разходите за нарушаване на...
Последно добавени
12/02/2025

Deepfake, изкуствен интелек...

Снощи, 11.02.2025 г., зала ‚Йоханесбург‘ на...
12/02/2025

Несправедливата реалност на...

Неотдавна мой чудесен колега се контузи...
12/02/2025

SAP пуска 21 кръпки за сигу...

Производителят на корпоративен софтуер SAP обяви...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!