Комитетът се създава в момент, когато създателят на ChatGPT започва да обучава най-новия си голям езиков модел – GPT-5, който ще достигне „ново ниво на възможности“.
Open AI сформира комитет за безопасност и сигурност, ръководен от директорите на компанията Брет Тейлър, Адам Д’Анджело, Никол Селигман и главния изпълнителен директор Сам Алтман.
Комитетът се сформира, за да дава препоръки на целия управителен съвет относно мерките за безопасност и решенията за сигурност за проектите и операциите на OpenAI.
В съобщението си за комитета OpenAI отбелязва, че е започнала обучението на следващата итерация на големия езиков модел, който е в основата на ChatGPT, и че „приветства активния дебат в този важен момент“ относно безопасността на изкуствения интелект.
Групата първо има за задача да оцени и разработи процесите и предпазните мерки на компанията за следващите 90 дни, след което комитетът ще сподели препоръките си с управителния съвет, който ще ги разгледа, преди да бъдат споделени с обществеността.
Сформирането на комисията идва, след като Ян Лейке, бивш ръководител на OpenAI по въпросите на безопасността, подаде оставка от компанията поради критики за недостатъчно инвестиране в работата по безопасността, както и напрежение с ръководството. То идва и след като нейният екип за надзор на безопасността беше разформирован, а членовете му бяха прехвърлени на други места.
Илия Колоченко, експерт по киберсигурност и предприемач, изрази своя скептицизъм относно това как тази промяна в компанията в крайна сметка ще бъде от полза за обществото като цяло.
„Макар че тази стъпка със сигурност е добре дошла, крайната ѝ полза за обществото до голяма степен е неясна. Осигуряването на безопасност на моделите на изкуствен интелект, например, за да се предотврати злоупотребата с тях или опасни халюцинации, очевидно е от съществено значение“, каза Колоченко в изявление, изпратено по електронната поща. „Безопасността обаче е само един от многото аспекти на рисковете, с които трябва да се справят доставчиците на GenAI. … Да бъдеш безопасен не означава непременно да бъдеш точен, надежден, справедлив, прозрачен, обясним и недискриминационен – абсолютно ключови характеристики на решенията GenAI.“









