Компании като Microsoft, Google и OpenAI имат конкурентни цели и подходи към отвореността, което превръща истинското сътрудничество между частния сектор в сериозно предизвикателство.
Според анализатор новото партньорство между Microsoft, Google, OpenAI и Anthropic, което има за цел да подобри безопасността и отговорността на изкуствения интелект, едва ли ще постигне целите си.
Форумът за гранични модели се ангажира с безопасното разработване на „гранични модели“, които той определя като големи модели за машинно обучение, които надхвърлят най-напредналите модели, налични в момента.
Той има за цел да идентифицира най-добрите практики в областта на ИИ, да подпомага частния сектор, академичните среди и политиците при прилагането на мерки за безопасност, да образова обществеността и да използва ИИ за борба с проблеми като изменението на климата.
„Хубаво е, че тези компании създадоха този нов орган, защото проблемите са предизвикателни и общи за всички създатели и потребители на модели“, каза Авива Литан, изтъкнат вицепрезидент анализатор в Gartner.
„Но шансовете на група от заклети конкуренти да стигнат до общо полезно решение и действително да постигнат повсеместното му прилагане – както в затворените модели, така и в моделите с отворен код, които те и други контролират по целия свят – са практически нулеви.“
Понастоящем форумът е съставен само от членовете-основатели, но заяви, че ще приветства кандидатури от организации, които могат да се ангажират с безопасното разработване на гранични модели и подпомагането на по-широки инициативи в сектора.
Meta, която се е фокусирала върху „отворения“ ИИ чрез модели като Llama 2, и AWS, която призовава за „демократизиран“ ИИ и подкрепя широк подход към достъпа до моделите, отсъстваха от групата по време на стартирането.
Съвместната работа на OpenAI и Microsoft е изключително успешна, като водещият в индустрията модел GPT-4 е използвал инструменти като ChatGPT и 365 Copilot.
Google е инвестирала много в свои собствени модели, включително PaLM 2, който използва за своя чатбот Bard. Нейното дъщерно дружество за изкуствен интелект Google DeepMind публично се ангажира с безопасността на изкуствения интелект, като главният изпълнителен директор Демис Хасабис отдавна е привърженик на етичния подход към технологията.
Anthropic доминира в заглавията на вестниците по-малко от съоснователите си във форума, но направи вълна в индустрията, откакто беше основана от бивши членове на OpenAI през 2021 г. Тя твърди, че нейният чатбот Клод е по-безопасен от алтернативите, и е предпочела предпазлив подход към пазара за разлика от конкурентите си.
Литан изрази надежда, че компаниите могат да работят за намиране на решения, които да бъдат наложени от правителствата, и подчерта, че е необходим международен правителствен орган за налагане на глобални стандарти за изкуствен интелект, но ще се окаже трудно да бъде сформиран.
„Не сме виждали такова глобално правителствено сътрудничество в областта на изменението на климата, където решенията вече са известни. Не очаквам глобалното сътрудничество и управление в областта на ИИ да бъде по-лесно. Всъщност ще бъде по-трудно, тъй като решенията все още са неизвестни. Поне тези компании могат да се стремят да намерят решения, така че това е добре.
Регулирането на изкуствения интелект продължава с различни темпове по света. Обединеното кралство назначи председател на работната група за създаване на модели, която има за цел да идентифицира предпазни мерки за технологията, които могат да бъдат приложени в световен мащаб, но може би изостава от ЕС, който вече е преминал през няколко важни кръга на гласуване на своя Закон за ИИ.
Д-р Кейт Девлин, старши преподавател по социален и културен изкуствен интелект в катедрата по дигитална хуманитаристика в Кралския колеж в Лондон, заяви пред ITPro, че Форумът за гранични модели е добре дошъл „по принцип“, и изтъкна намерението на участващите компании да се ангажират с по-широки партньорства като добра стъпка.
„Все още не е ясно каква форма ще приеме това: Изглежда, че съобщението се фокусира особено върху техническите подходи, но има много по-широки социално-технически аспекти, които трябва да бъдат разгледани, когато става въпрос за отговорно разработване на ИИ“, каза д-р Девлин.
„Важно е да се гарантира, че няма конфликт на интереси, когато критично се разглежда въздействието на тази технология върху света.“
Д-р Девлин е член на Responsible AI UK – програма, която има за цел да консолидира екосистемата за отговорен изкуствен интелект и да подобри сътрудничеството в тази област.
Подкрепена от публичния орган „Научни изследвания и иновации в Обединеното кралство“, тя се ангажира с проекти за научни изследвания и иновации в социално-технически и творчески области в допълнение към STEM, за да подкрепи пълния потенциал на екосистемата на ИИ в Обединеното кралство.
Сред другите групи, които вече имат за цел да предоставят насоки за безопасност при използването на ИИ, е Глобалното партньорство за ИИ (GPAI), което обединява 29 държави под ръководството на ротационен президент, за да подкрепи препоръката на ОИСР относно изкуствения интелект.
То работи за превръщането на теорията за ИИ в реалност, в съответствие с опасенията на законодателите, професионалистите от индустрията, академичните среди и гражданските групи.
Форумът за гранични модели посочи процеса за ИИ на Г-7 в Хирошима като инициатива, която ще подкрепи. Това беше споразумение, постигнато на срещата на върха на Г-7 в Япония, като присъстващите световни лидери бяха помолени да си сътрудничат с ОИСР и ГПАИ.
АБОНИРАЙТЕ СЕ ЗА НАШИЯ Е-БЮЛЕТИН И ПОЛУЧАВАЙТЕ НОВИНИ И СЪВЕТИ НА ТЕМА КИБЕРСИГУРНОСТ.
© 2022 Фондация “Киберсигурност за Всеки” с ЕИК 206932045. Всички права запазени. Политики за поверителност.
ж.к. Гео Милев бл. 117, вх.А
София 1113, България
support[@]e-security.bg
Фондация “Киберсигурност за Всеки” с ЕИК 206932045 е ЮЛНЦ в обществена полза, регистрирано в ЕС, работещо в съответствие с мисията и целите си.
Моля, имайте предвид, че всички споменати продукти и/или имена на компании са търговски марки ™ или ® на съответните им притежатели. Уебсайтът/фондацията няма никаква свързаност и/или одобрение за/от тях – тези търговски марки се използват само за образователни цели като примери. Настоящият уебсайт е онлайн информационна платформа, управлявана от доброволна фондация в обществена полза. Благодарим ви, че сте тук и за всякакви допълнителни въпроси, не се колебайте да се свържете с нас.
Мисията на Фондация “Киберсигурност за Всеки” е да допринесе за подобряване на киберсигурността, информационна сигурност и защита на системите и да повиши културата на обществото и организациите по тези и свързани с тях теми. Ние насърчаване безопасността и поверителността на потребителите, като повишаваме осведомеността, информираме за най-добрите и нови практики и помагаме на хора и организации да преодолеят съвременните предизвикателства за сигурността на мрежата и опазването на техните дигиталните активи.
На посоченият от Вас e-mail е изпратено съобщение за потвърждаване на абонамента.
Моля, проверете електронната си поща за да потвърдите.