Компании като Microsoft, Google и OpenAI имат конкурентни цели и подходи към отвореността, което превръща истинското сътрудничество между частния сектор в сериозно предизвикателство.

Според анализатор новото партньорство между Microsoft, Google, OpenAI и Anthropic, което има за цел да подобри безопасността и отговорността на изкуствения интелект, едва ли ще постигне целите си.

Форумът за гранични модели се ангажира с безопасното разработване на „гранични модели“, които той определя като големи модели за машинно обучение, които надхвърлят най-напредналите модели, налични в момента.

Той има за цел да идентифицира най-добрите практики в областта на ИИ, да подпомага частния сектор, академичните среди и политиците при прилагането на мерки за безопасност, да образова обществеността и да използва ИИ за борба с проблеми като изменението на климата.

„Хубаво е, че тези компании създадоха този нов орган, защото проблемите са предизвикателни и общи за всички създатели и потребители на модели“, каза Авива Литан, изтъкнат вицепрезидент анализатор в Gartner.

„Но шансовете на група от заклети конкуренти да стигнат до общо полезно решение и действително да постигнат повсеместното му прилагане – както в затворените модели, така и в моделите с отворен код, които те и други контролират по целия свят – са практически нулеви.“

Понастоящем форумът е съставен само от членовете-основатели, но заяви, че ще приветства кандидатури от организации, които могат да се ангажират с безопасното разработване на гранични модели и подпомагането на по-широки инициативи в сектора.

Meta, която се е фокусирала върху „отворения“ ИИ чрез модели като Llama 2, и AWS, която призовава за „демократизиран“ ИИ и подкрепя широк подход към достъпа до моделите, отсъстваха от групата по време на стартирането.

Съвместната работа на OpenAI и Microsoft е изключително успешна, като водещият в индустрията модел GPT-4 е използвал инструменти като ChatGPT и 365 Copilot.

Google е инвестирала много в свои собствени модели, включително PaLM 2, който използва за своя чатбот Bard. Нейното дъщерно дружество за изкуствен интелект Google DeepMind публично се ангажира с безопасността на изкуствения интелект, като главният изпълнителен директор Демис Хасабис отдавна е привърженик на етичния подход към технологията.

Anthropic доминира в заглавията на вестниците по-малко от съоснователите си във форума, но направи вълна в индустрията, откакто беше основана от бивши членове на OpenAI през 2021 г. Тя твърди, че нейният чатбот Клод е по-безопасен от алтернативите, и е предпочела предпазлив подход към пазара за разлика от конкурентите си.

Литан изрази надежда, че компаниите могат да работят за намиране на решения, които да бъдат наложени от правителствата, и подчерта, че е необходим международен правителствен орган за налагане на глобални стандарти за изкуствен интелект, но ще се окаже трудно да бъде сформиран.

„Не сме виждали такова глобално правителствено сътрудничество в областта на изменението на климата, където решенията вече са известни. Не очаквам глобалното сътрудничество и управление в областта на ИИ да бъде по-лесно. Всъщност ще бъде по-трудно, тъй като решенията все още са неизвестни. Поне тези компании могат да се стремят да намерят решения, така че това е добре.

Регулирането на изкуствения интелект продължава с различни темпове по света. Обединеното кралство назначи председател на работната група за създаване на модели, която има за цел да идентифицира предпазни мерки за технологията, които могат да бъдат приложени в световен мащаб, но може би изостава от ЕС, който вече е преминал през няколко важни кръга на гласуване на своя Закон за ИИ.

Д-р Кейт Девлин, старши преподавател по социален и културен изкуствен интелект в катедрата по дигитална хуманитаристика в Кралския колеж в Лондон, заяви пред ITPro, че Форумът за гранични модели е добре дошъл „по принцип“, и изтъкна намерението на участващите компании да се ангажират с по-широки партньорства като добра стъпка.

„Все още не е ясно каква форма ще приеме това: Изглежда, че съобщението се фокусира особено върху техническите подходи, но има много по-широки социално-технически аспекти, които трябва да бъдат разгледани, когато става въпрос за отговорно разработване на ИИ“, каза д-р Девлин.

„Важно е да се гарантира, че няма конфликт на интереси, когато критично се разглежда въздействието на тази технология върху света.“

Д-р Девлин е член на Responsible AI UK – програма, която има за цел да консолидира екосистемата за отговорен изкуствен интелект и да подобри сътрудничеството в тази област.

Подкрепена от публичния орган „Научни изследвания и иновации в Обединеното кралство“, тя се ангажира с проекти за научни изследвания и иновации в социално-технически и творчески области в допълнение към STEM, за да подкрепи пълния потенциал на екосистемата на ИИ в Обединеното кралство.

Сред другите групи, които вече имат за цел да предоставят насоки за безопасност при използването на ИИ, е Глобалното партньорство за ИИ (GPAI), което обединява 29 държави под ръководството на ротационен президент, за да подкрепи препоръката на ОИСР относно изкуствения интелект.

То работи за превръщането на теорията за ИИ в реалност, в съответствие с опасенията на законодателите, професионалистите от индустрията, академичните среди и гражданските групи.

Форумът за гранични модели посочи процеса за ИИ на Г-7 в Хирошима като инициатива, която ще подкрепи. Това беше споразумение, постигнато на срещата на върха на Г-7 в Япония, като присъстващите световни лидери бяха помолени да си сътрудничат с ОИСР и ГПАИ.

Източник: itpro.co.uk

Подобни публикации

25 март 2025

300 арестувани при потушаването на киберпрестъп...

Повече от 300 заподозрени бяха арестувани в седем африкански държав...
25 март 2025

IngressNightmare излага много клъстери на Kuber...

Изследователи от гиганта в областта на сигурността в облака Wiz са ...
25 март 2025

ФБР предупреждава за опасни инструменти за конв...

Според местния офис на ФБР в Денвър инструментите конвертират докум...
24 март 2025

Oracle отрича, че системите ѝ са били пробити

Oracle отрече, че системите ѝ са били пробити, след като хакер пред...
24 март 2025

NIST все още се бори да изчисти изоставането в ...

Националният институт по стандартизация и технологии (NIST) все още...
24 март 2025

Атакуващите се преориентират към фалшификат на ...

Специалистите по SEO оптимизация са най-новата група, към която са ...
24 март 2025

Група за рансъмуер заявява атаки срещу Ascom и...

Тази седмица групата Hellcat ransomware пое отговорност за киберата...
Бъдете социални
Още по темата
24/03/2025

Нова техника за Jailbreak и...

Фирмата за киберсигурност Cato Networks е...
22/03/2025

Бившият шеф на сигурността ...

На 13 март 2025 г. състав...
21/03/2025

Тревожен ръст на фишинга с ...

Сигурността на браузъра не може да...
Последно добавени
25/03/2025

300 арестувани при потушава...

Повече от 300 заподозрени бяха арестувани...
25/03/2025

IngressNightmare излага мно...

Изследователи от гиганта в областта на...
25/03/2025

ФБР предупреждава за опасни...

Според местния офис на ФБР в...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!