OpenAI, Microsoft, Google i Anthropic łączą siły
OpenAI, Microsoft, Google i Anthropic łączą siły w celu stworzenia Frontier AI
OpenAI, Google, Microsoft i Anthropic, cztery największe firmy AI, założyły nowe stowarzyszenie branżowe, aby zapewnić „bezpieczny i odpowiedzialny rozwój” tak zwanych modeli „frontier AI”.
Twórcy szeroko stosowanych technologii sztucznej inteligencji, w tym OpenAI, Microsoft, Google i Anthropic, utworzyli Frontier Model Forum w odpowiedzi na rosnące wymagania dotyczące regulacji rządowych. Aby zapewnić oceny techniczne i testy porównawcze, a także promować najlepsze praktyki i standardy, sojusz ten korzysta z wiedzy specjalistycznej firm członkowskich.
Chociaż w tej chwili ma tylko czterech członków, Frontier AI Model Forum wita nowych uczestników. Aby się zakwalifikować, firma musi pracować nad innowacyjnymi modelami AI i wykazać się „silnym zaangażowaniem w bezpieczeństwo modeli pionierskich”.
Co oferuje Frontier AI Model Forum?
U podstaw misji forum leży dyskusja na temat pionierskiej sztucznej inteligencji lub najnowocześniejszych modeli sztucznej inteligencji i uczenia maszynowego, które są uważane za wystarczająco niebezpieczne, aby stanowić „poważne zagrożenie dla bezpieczeństwa publicznego”. Według Google , oto główne cele Frontier AI Model Forum:
Prowadzone są badania nad bezpieczeństwem sztucznej inteligencji, aby zachęcić do starannego tworzenia najnowocześniejszych modeli, zmniejszyć potencjalne zagrożenia i utorować drogę do bezstronnych, znormalizowanych ocen wydajności i bezpieczeństwa.
Edukowanie społeczeństwa na temat natury, możliwości, ograniczeń i skutków technologii poprzez określenie najlepszych metod jej odpowiedzialnego rozwoju i wdrażania.
Współpraca z decydentami, naukowcami, społeczeństwem obywatelskim i przedsiębiorstwami w celu rozpowszechniania informacji na temat zagrożeń dla zaufania i bezpieczeństwa.
Wzmożenie wysiłków w celu stworzenia oprogramowania, które może pomóc w rozwiązaniu niektórych z najpilniejszych problemów społeczeństwa, takich jak zmiana klimatu, diagnostyka i zapobieganie chorobom oraz bezpieczeństwo cybernetyczne.
Głównymi celami Forum będzie intensyfikacja badań nad bezpieczeństwem sztucznej inteligencji, poprawa komunikacji między korporacjami a rządami oraz określenie najlepszych praktyk w zakresie opracowywania i wdrażania modeli sztucznej inteligencji. Badanie bezpieczeństwa sztucznej inteligencji będzie obejmować testowanie i porównywanie różnych modeli sztucznej inteligencji oraz udostępnianie testów porównawczych w bibliotece publicznej, aby każdy główny gracz w branży mógł zrozumieć ryzyko i podjąć środki ostrożności.
Frontier Model Forum utworzy radę doradczą z członkami reprezentującymi różne dyscypliny i punkty widzenia, aby pomóc w podejmowaniu decyzji dotyczących taktyk i celów. Ponadto pionierskie firmy utworzą ramy instytucjonalne, które ułatwią budowanie konsensusu między wszystkimi odpowiednimi stronami w kwestiach związanych z rozwojem sztucznej inteligencji.
Forum będzie również korzystać z danych i zasobów przekazanych przez naukowców, organizacje pozarządowe i inne zainteresowane strony. Będzie przestrzegać i wspierać standardy ustanowione przez istniejące projekty AI, takie jak Partnership on AI i MLCommons, aby zapewnić ich pomyślne wdrożenie.
Jak będzie działać Frontier AI Model Forum?
W nadchodzących miesiącach Frontier Model Forum utworzy Radę Doradczą składającą się z osób o szerokim spektrum doświadczeń i punktów widzenia, aby pomóc w kierowaniu strategią i celami organizacji.
Kluczowe ustalenia instytucjonalne, takie jak statut, zarządzanie i finanse, zostaną również ustanowione przez firmy założycielskie, którym będzie przewodniczyć grupa robocza i zarząd. W nadchodzących tygodniach forum będzie konsultować się ze społeczeństwem obywatelskim i rządem w sprawie struktury forum i skutecznych metod współpracy.
Gdy tylko nadarzy się taka okazja, Frontier Model Forum chętnie służy swoją wiedzą fachową w bieżących programach krajowych i globalnych, takich jak proces G7 z Hiroszimy, prace OECD nad zagrożeniami, standardami i skutkami społecznymi sztucznej inteligencji oraz Rada ds. Handlu i Technologii UE-USA .
Każda z inicjatyw lub „strumieni pracy” Forum będzie miała na celu wykorzystanie postępów już poczynionych przez świat biznesu, sektor non-profit i środowisko akademickie. Forum przyjrzy się metodom angażowania się i wspierania niezbędnych wysiłków wielostronnych, takich jak Partnership on AI i MLCommons, które wnoszą znaczący wkład w społeczność AI.
Przejdź do strony głównej Wróć do kategorii Blog IT