Шансът за постигане на целите на алианса на BIG TECH за ИИ е „почти нулев“?

Компании като Microsoft, Google и OpenAI имат конкурентни цели и подходи към отвореността, което превръща истинското сътрудничество между частния сектор в сериозно предизвикателство.

Според анализатор новото партньорство между Microsoft, Google, OpenAI и Anthropic, което има за цел да подобри безопасността и отговорността на изкуствения интелект, едва ли ще постигне целите си.

Форумът за гранични модели се ангажира с безопасното разработване на „гранични модели“, които той определя като големи модели за машинно обучение, които надхвърлят най-напредналите модели, налични в момента.

Той има за цел да идентифицира най-добрите практики в областта на ИИ, да подпомага частния сектор, академичните среди и политиците при прилагането на мерки за безопасност, да образова обществеността и да използва ИИ за борба с проблеми като изменението на климата.

„Хубаво е, че тези компании създадоха този нов орган, защото проблемите са предизвикателни и общи за всички създатели и потребители на модели“, каза Авива Литан, изтъкнат вицепрезидент анализатор в Gartner.

„Но шансовете на група от заклети конкуренти да стигнат до общо полезно решение и действително да постигнат повсеместното му прилагане – както в затворените модели, така и в моделите с отворен код, които те и други контролират по целия свят – са практически нулеви.“

Понастоящем форумът е съставен само от членовете-основатели, но заяви, че ще приветства кандидатури от организации, които могат да се ангажират с безопасното разработване на гранични модели и подпомагането на по-широки инициативи в сектора.

Meta, която се е фокусирала върху „отворения“ ИИ чрез модели като Llama 2, и AWS, която призовава за „демократизиран“ ИИ и подкрепя широк подход към достъпа до моделите, отсъстваха от групата по време на стартирането.

Съвместната работа на OpenAI и Microsoft е изключително успешна, като водещият в индустрията модел GPT-4 е използвал инструменти като ChatGPT и 365 Copilot.

Google е инвестирала много в свои собствени модели, включително PaLM 2, който използва за своя чатбот Bard. Нейното дъщерно дружество за изкуствен интелект Google DeepMind публично се ангажира с безопасността на изкуствения интелект, като главният изпълнителен директор Демис Хасабис отдавна е привърженик на етичния подход към технологията.

Anthropic доминира в заглавията на вестниците по-малко от съоснователите си във форума, но направи вълна в индустрията, откакто беше основана от бивши членове на OpenAI през 2021 г. Тя твърди, че нейният чатбот Клод е по-безопасен от алтернативите, и е предпочела предпазлив подход към пазара за разлика от конкурентите си.

Литан изрази надежда, че компаниите могат да работят за намиране на решения, които да бъдат наложени от правителствата, и подчерта, че е необходим международен правителствен орган за налагане на глобални стандарти за изкуствен интелект, но ще се окаже трудно да бъде сформиран.

„Не сме виждали такова глобално правителствено сътрудничество в областта на изменението на климата, където решенията вече са известни. Не очаквам глобалното сътрудничество и управление в областта на ИИ да бъде по-лесно. Всъщност ще бъде по-трудно, тъй като решенията все още са неизвестни. Поне тези компании могат да се стремят да намерят решения, така че това е добре.

Регулирането на изкуствения интелект продължава с различни темпове по света. Обединеното кралство назначи председател на работната група за създаване на модели, която има за цел да идентифицира предпазни мерки за технологията, които могат да бъдат приложени в световен мащаб, но може би изостава от ЕС, който вече е преминал през няколко важни кръга на гласуване на своя Закон за ИИ.

Д-р Кейт Девлин, старши преподавател по социален и културен изкуствен интелект в катедрата по дигитална хуманитаристика в Кралския колеж в Лондон, заяви пред ITPro, че Форумът за гранични модели е добре дошъл „по принцип“, и изтъкна намерението на участващите компании да се ангажират с по-широки партньорства като добра стъпка.

„Все още не е ясно каква форма ще приеме това: Изглежда, че съобщението се фокусира особено върху техническите подходи, но има много по-широки социално-технически аспекти, които трябва да бъдат разгледани, когато става въпрос за отговорно разработване на ИИ“, каза д-р Девлин.

„Важно е да се гарантира, че няма конфликт на интереси, когато критично се разглежда въздействието на тази технология върху света.“

Д-р Девлин е член на Responsible AI UK – програма, която има за цел да консолидира екосистемата за отговорен изкуствен интелект и да подобри сътрудничеството в тази област.

Подкрепена от публичния орган „Научни изследвания и иновации в Обединеното кралство“, тя се ангажира с проекти за научни изследвания и иновации в социално-технически и творчески области в допълнение към STEM, за да подкрепи пълния потенциал на екосистемата на ИИ в Обединеното кралство.

Сред другите групи, които вече имат за цел да предоставят насоки за безопасност при използването на ИИ, е Глобалното партньорство за ИИ (GPAI), което обединява 29 държави под ръководството на ротационен президент, за да подкрепи препоръката на ОИСР относно изкуствения интелект.

То работи за превръщането на теорията за ИИ в реалност, в съответствие с опасенията на законодателите, професионалистите от индустрията, академичните среди и гражданските групи.

Форумът за гранични модели посочи процеса за ИИ на Г-7 в Хирошима като инициатива, която ще подкрепи. Това беше споразумение, постигнато на срещата на върха на Г-7 в Япония, като присъстващите световни лидери бяха помолени да си сътрудничат с ОИСР и ГПАИ.

Източник: itpro.co.uk

Подобни публикации

4 октомври 2023

Киберсигурността: ключов фактор за настоящето и...

Месецът за повишаване на осведомеността за киберсигурността се отбе...
4 октомври 2023

Моделите на PyTorch са уязвими за изпълнение на...

Изследователи в областта на киберсигурността са разкрили множество ...
4 октомври 2023

Qualcomm издава кръпка за 3 нови нулеви дни

Производителят на чипове Qualcomm пусна актуализации за сигурност, ...
4 октомври 2023

Над 3 дузини зловредни пакети npm са насочени к...

Според констатации на Fortinet FortiGuard Labs в хранилището за пак...
4 октомври 2023

Милиони мейл сървъри на Exim са изложени на zer...

Критична уязвимост от типа „нулев ден“ във всички верси...
3 октомври 2023

Cyber Security Talks Bulgaria – ОКТОМВРИ 2023

На 10.10.2023 г. във Висшето военноморско училище в гр. Варна ще се...
3 октомври 2023

ФБР предупреждава за ръст на измамите с "фантом...

ФБР публикува съобщение за обществена услуга, в което предупреждава...
3 октомври 2023

Новият ASMCrypt Malware Loader лети под радара

Киберпрестъпници продават нов софтуер за криптиране и зареждане, на...
2 октомври 2023

Рансъмуер банди вече използват критичен недоста...

Бандите за изнудване сега се насочват към наскоро поправена критичн...
Бъдете социални
Още по темата
04/10/2023

Киберсигурността: ключов фа...

Месецът за повишаване на осведомеността за...
04/10/2023

Милиони мейл сървъри на Exi...

Критична уязвимост от типа „нулев ден“...
02/10/2023

Arm предупреждава за недост...

В днешна консултация по сигурността Arm...
Последно добавени
04/10/2023

Киберсигурността: ключов фа...

Месецът за повишаване на осведомеността за...
04/10/2023

Моделите на PyTorch са уязв...

Изследователи в областта на киберсигурността са...
04/10/2023

Qualcomm издава кръпка за 3...

Производителят на чипове Qualcomm пусна актуализации...
Ключови думи

Абонамента е почти завършен.

На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.

Моля, проверете електронната си поща за да потвърдите.

Благодарим за доверието!