Шансът за постигане на целите на алианса на BIG TECH за ИИ е „почти нулев“?

Компании като Microsoft, Google и OpenAI имат конкурентни цели и подходи към отвореността, което превръща истинското сътрудничество между частния сектор в сериозно предизвикателство.

Според анализатор новото партньорство между Microsoft, Google, OpenAI и Anthropic, което има за цел да подобри безопасността и отговорността на изкуствения интелект, едва ли ще постигне целите си.

Форумът за гранични модели се ангажира с безопасното разработване на „гранични модели“, които той определя като големи модели за машинно обучение, които надхвърлят най-напредналите модели, налични в момента.

Той има за цел да идентифицира най-добрите практики в областта на ИИ, да подпомага частния сектор, академичните среди и политиците при прилагането на мерки за безопасност, да образова обществеността и да използва ИИ за борба с проблеми като изменението на климата.

„Хубаво е, че тези компании създадоха този нов орган, защото проблемите са предизвикателни и общи за всички създатели и потребители на модели“, каза Авива Литан, изтъкнат вицепрезидент анализатор в Gartner.

„Но шансовете на група от заклети конкуренти да стигнат до общо полезно решение и действително да постигнат повсеместното му прилагане – както в затворените модели, така и в моделите с отворен код, които те и други контролират по целия свят – са практически нулеви.“

Понастоящем форумът е съставен само от членовете-основатели, но заяви, че ще приветства кандидатури от организации, които могат да се ангажират с безопасното разработване на гранични модели и подпомагането на по-широки инициативи в сектора.

Meta, която се е фокусирала върху „отворения“ ИИ чрез модели като Llama 2, и AWS, която призовава за „демократизиран“ ИИ и подкрепя широк подход към достъпа до моделите, отсъстваха от групата по време на стартирането.

Съвместната работа на OpenAI и Microsoft е изключително успешна, като водещият в индустрията модел GPT-4 е използвал инструменти като ChatGPT и 365 Copilot.

Google е инвестирала много в свои собствени модели, включително PaLM 2, който използва за своя чатбот Bard. Нейното дъщерно дружество за изкуствен интелект Google DeepMind публично се ангажира с безопасността на изкуствения интелект, като главният изпълнителен директор Демис Хасабис отдавна е привърженик на етичния подход към технологията.

Anthropic доминира в заглавията на вестниците по-малко от съоснователите си във форума, но направи вълна в индустрията, откакто беше основана от бивши членове на OpenAI през 2021 г. Тя твърди, че нейният чатбот Клод е по-безопасен от алтернативите, и е предпочела предпазлив подход към пазара за разлика от конкурентите си.

Литан изрази надежда, че компаниите могат да работят за намиране на решения, които да бъдат наложени от правителствата, и подчерта, че е необходим международен правителствен орган за налагане на глобални стандарти за изкуствен интелект, но ще се окаже трудно да бъде сформиран.

„Не сме виждали такова глобално правителствено сътрудничество в областта на изменението на климата, където решенията вече са известни. Не очаквам глобалното сътрудничество и управление в областта на ИИ да бъде по-лесно. Всъщност ще бъде по-трудно, тъй като решенията все още са неизвестни. Поне тези компании могат да се стремят да намерят решения, така че това е добре.

Регулирането на изкуствения интелект продължава с различни темпове по света. Обединеното кралство назначи председател на работната група за създаване на модели, която има за цел да идентифицира предпазни мерки за технологията, които могат да бъдат приложени в световен мащаб, но може би изостава от ЕС, който вече е преминал през няколко важни кръга на гласуване на своя Закон за ИИ.

Д-р Кейт Девлин, старши преподавател по социален и културен изкуствен интелект в катедрата по дигитална хуманитаристика в Кралския колеж в Лондон, заяви пред ITPro, че Форумът за гранични модели е добре дошъл „по принцип“, и изтъкна намерението на участващите компании да се ангажират с по-широки партньорства като добра стъпка.

„Все още не е ясно каква форма ще приеме това: Изглежда, че съобщението се фокусира особено върху техническите подходи, но има много по-широки социално-технически аспекти, които трябва да бъдат разгледани, когато става въпрос за отговорно разработване на ИИ“, каза д-р Девлин.

„Важно е да се гарантира, че няма конфликт на интереси, когато критично се разглежда въздействието на тази технология върху света.“

Д-р Девлин е член на Responsible AI UK – програма, която има за цел да консолидира екосистемата за отговорен изкуствен интелект и да подобри сътрудничеството в тази област.

Подкрепена от публичния орган „Научни изследвания и иновации в Обединеното кралство“, тя се ангажира с проекти за научни изследвания и иновации в социално-технически и творчески области в допълнение към STEM, за да подкрепи пълния потенциал на екосистемата на ИИ в Обединеното кралство.

Сред другите групи, които вече имат за цел да предоставят насоки за безопасност при използването на ИИ, е Глобалното партньорство за ИИ (GPAI), което обединява 29 държави под ръководството на ротационен президент, за да подкрепи препоръката на ОИСР относно изкуствения интелект.

То работи за превръщането на теорията за ИИ в реалност, в съответствие с опасенията на законодателите, професионалистите от индустрията, академичните среди и гражданските групи.

Форумът за гранични модели посочи процеса за ИИ на Г-7 в Хирошима като инициатива, която ще подкрепи. Това беше споразумение, постигнато на срещата на върха на Г-7 в Япония, като присъстващите световни лидери бяха помолени да си сътрудничат с ОИСР и ГПАИ.

itpro.co.uk

Подобни

Кибератака спря интернет достъпа в училища и детски градини в Инвърклайд
25.01.2026
phishing-7487504_640
Кибератака срещу Дрезденските държавни художествени колекции
25.01.2026
man-2590655_640
Край на дългия регулаторен спор около TikTok
23.01.2026
tiktok-privacy
OpenAI влиза в хардуера през втората половина на 2026 г.
23.01.2026
OpenAI-GPT-4
Гръцката полиция разби схема за SMS фишинг от ново поколение
23.01.2026
flag-greece-officially-adopted-first-national-assembly-epidaurus-january-50937798
Централната банка на Иран използва USDT, за да заобикаля санкциите
23.01.2026
181213-iran-hacking

Споделете

Facebook
LinkedIn

Бюлетин

С нашия бюлетин ще бъдеш сред първите, които научават за нови заплахи, практични решения и добри практики. Напълно безплатно и с грижа за твоята сигурност.

Популярни

Измамническите сайтове в България: как да ги разпознаем, проверим и защитим себе си
6.10.2025
bulgaria3
Социалните мрежи и младите - между канализиране на общественото мнение и манипулация
7.12.2025
spasov
Вишинг измами срещу потребители на Revolut
11.12.2025
revolut
ClickFix кампания атакува хотели и туристически компании в България и ЕС
6.01.2026
Blue_screen_of_death-Maurice_Savage-Alamy

Бъди в крак с киберсигурността

Абонирай се за нашия бюлетин и получавай директно в пощата си най-важните новини, експертни съвети и практически насоки за киберхигиена и защита онлайн. Кратко, полезно и без спам.