Търсене
Close this search box.

Шансът за постигане на целите на алианса на BIG TECH за ИИ е „почти нулев“?

Компании като Microsoft, Google и OpenAI имат конкурентни цели и подходи към отвореността, което превръща истинското сътрудничество между частния сектор в сериозно предизвикателство.

Според анализатор новото партньорство между Microsoft, Google, OpenAI и Anthropic, което има за цел да подобри безопасността и отговорността на изкуствения интелект, едва ли ще постигне целите си.

Форумът за гранични модели се ангажира с безопасното разработване на „гранични модели“, които той определя като големи модели за машинно обучение, които надхвърлят най-напредналите модели, налични в момента.

Той има за цел да идентифицира най-добрите практики в областта на ИИ, да подпомага частния сектор, академичните среди и политиците при прилагането на мерки за безопасност, да образова обществеността и да използва ИИ за борба с проблеми като изменението на климата.

„Хубаво е, че тези компании създадоха този нов орган, защото проблемите са предизвикателни и общи за всички създатели и потребители на модели“, каза Авива Литан, изтъкнат вицепрезидент анализатор в Gartner.

„Но шансовете на група от заклети конкуренти да стигнат до общо полезно решение и действително да постигнат повсеместното му прилагане – както в затворените модели, така и в моделите с отворен код, които те и други контролират по целия свят – са практически нулеви.“

Понастоящем форумът е съставен само от членовете-основатели, но заяви, че ще приветства кандидатури от организации, които могат да се ангажират с безопасното разработване на гранични модели и подпомагането на по-широки инициативи в сектора.

Meta, която се е фокусирала върху „отворения“ ИИ чрез модели като Llama 2, и AWS, която призовава за „демократизиран“ ИИ и подкрепя широк подход към достъпа до моделите, отсъстваха от групата по време на стартирането.

Съвместната работа на OpenAI и Microsoft е изключително успешна, като водещият в индустрията модел GPT-4 е използвал инструменти като ChatGPT и 365 Copilot.

Google е инвестирала много в свои собствени модели, включително PaLM 2, който използва за своя чатбот Bard. Нейното дъщерно дружество за изкуствен интелект Google DeepMind публично се ангажира с безопасността на изкуствения интелект, като главният изпълнителен директор Демис Хасабис отдавна е привърженик на етичния подход към технологията.

Anthropic доминира в заглавията на вестниците по-малко от съоснователите си във форума, но направи вълна в индустрията, откакто беше основана от бивши членове на OpenAI през 2021 г. Тя твърди, че нейният чатбот Клод е по-безопасен от алтернативите, и е предпочела предпазлив подход към пазара за разлика от конкурентите си.

Литан изрази надежда, че компаниите могат да работят за намиране на решения, които да бъдат наложени от правителствата, и подчерта, че е необходим международен правителствен орган за налагане на глобални стандарти за изкуствен интелект, но ще се окаже трудно да бъде сформиран.

„Не сме виждали такова глобално правителствено сътрудничество в областта на изменението на климата, където решенията вече са известни. Не очаквам глобалното сътрудничество и управление в областта на ИИ да бъде по-лесно. Всъщност ще бъде по-трудно, тъй като решенията все още са неизвестни. Поне тези компании могат да се стремят да намерят решения, така че това е добре.

Регулирането на изкуствения интелект продължава с различни темпове по света. Обединеното кралство назначи председател на работната група за създаване на модели, която има за цел да идентифицира предпазни мерки за технологията, които могат да бъдат приложени в световен мащаб, но може би изостава от ЕС, който вече е преминал през няколко важни кръга на гласуване на своя Закон за ИИ.

Д-р Кейт Девлин, старши преподавател по социален и културен изкуствен интелект в катедрата по дигитална хуманитаристика в Кралския колеж в Лондон, заяви пред ITPro, че Форумът за гранични модели е добре дошъл „по принцип“, и изтъкна намерението на участващите компании да се ангажират с по-широки партньорства като добра стъпка.

„Все още не е ясно каква форма ще приеме това: Изглежда, че съобщението се фокусира особено върху техническите подходи, но има много по-широки социално-технически аспекти, които трябва да бъдат разгледани, когато става въпрос за отговорно разработване на ИИ“, каза д-р Девлин.

„Важно е да се гарантира, че няма конфликт на интереси, когато критично се разглежда въздействието на тази технология върху света.“

Д-р Девлин е член на Responsible AI UK – програма, която има за цел да консолидира екосистемата за отговорен изкуствен интелект и да подобри сътрудничеството в тази област.

Подкрепена от публичния орган „Научни изследвания и иновации в Обединеното кралство“, тя се ангажира с проекти за научни изследвания и иновации в социално-технически и творчески области в допълнение към STEM, за да подкрепи пълния потенциал на екосистемата на ИИ в Обединеното кралство.

Сред другите групи, които вече имат за цел да предоставят насоки за безопасност при използването на ИИ, е Глобалното партньорство за ИИ (GPAI), което обединява 29 държави под ръководството на ротационен президент, за да подкрепи препоръката на ОИСР относно изкуствения интелект.

То работи за превръщането на теорията за ИИ в реалност, в съответствие с опасенията на законодателите, професионалистите от индустрията, академичните среди и гражданските групи.

Форумът за гранични модели посочи процеса за ИИ на Г-7 в Хирошима като инициатива, която ще подкрепи. Това беше споразумение, постигнато на срещата на върха на Г-7 в Япония, като присъстващите световни лидери бяха помолени да си сътрудничат с ОИСР и ГПАИ.

Източник: itpro.co.uk

Подобни публикации

21 май 2024

Arm ще пусне чипове с ИИ през 2025 година

Съобщава се, че базираната в Обединеното кралство компания Arm, еди...
20 май 2024

Атака над ARRL постави радиолюбителите по света...

Американската радиорелейна лига (ARRL) предупреждава, че е претърпя...

Защита на вашите коммити от известни CVEs с Git...

Всички разработчици искат да създават сигурен и надежден софтуер. Т...
20 май 2024

Чрез GitHub и FileZilla се доставя коктейл от ...

Наблюдавана е „многостранна кампания“, при която се зло...
20 май 2024

7 бъга излезли на Pwn2Own все още чакат поправка

Редица сериозни грешки в Windows все още не са навлезли в криминалн...
20 май 2024

Китайци са арестувани за пране на 73 милиона до...

Министерството на правосъдието на САЩ повдигна обвинения на двама а...
20 май 2024

Квантовата навигация може да замени GPS съвсем ...

Британски консорциум, финансиран от правителството на Обединеното к...
19 май 2024

Grandoreiro се завръща по - мощен след прекъсва...

Банковият троянец за Android „Grandoreiro“ се разпростр...
Бъдете социални
Още по темата
21/05/2024

Arm ще пусне чипове с ИИ пр...

Съобщава се, че базираната в Обединеното...
20/05/2024

Защита на вашите коммити от...

Всички разработчици искат да създават сигурен...
20/05/2024

Чрез GitHub и FileZilla се ...

Наблюдавана е „многостранна кампания“, при която...
Последно добавени
21/05/2024

Arm ще пусне чипове с ИИ пр...

Съобщава се, че базираната в Обединеното...
20/05/2024

Атака над ARRL постави ради...

Американската радиорелейна лига (ARRL) предупреждава, че...
20/05/2024

Защита на вашите коммити от...

Всички разработчици искат да създават сигурен...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!