Przewodniczący OpenAI ostrzega: Żadna organizacja nie jest przygotowana na AGI

ADS

Lider OpenAI, który odchodzi, oświadczył, że żadna organizacja nie jest przygotowana na AGI.

Dział “Gotowość do AGI” w OpenAI również jest obecnie w trakcie rozwiązywania.
Kylie Robison, starszy reporter ds. sztucznej inteligencji, który współpracuje z zespołami ds. polityki i technologii The Verge. W przeszłości zajmowała stanowiska w Business Insider i Fortune Magazine.

Wraz z ogłoszeniem swojego odejścia w środę, Miles Brundage, starszy doradca OpenAI ds. wykonalności AGI (znanej także jako sztuczna inteligencja na poziomie ludzkim), wydał ostrzeżenie: nikt, w tym OpenAI, nie jest przygotowany na ogólną sztuczną inteligencję.

Brundage, który przez sześć lat pomagał w opracowywaniu inicjatyw bezpieczeństwa AI firmy, napisał: „Ani OpenAI, ani żaden inny laboratorium na granicy nie jest przygotowany na AGI, a także świat nie jest przygotowany”. „Chcę być jasny, nie uważam, że to jest kontrowersyjne stwierdzenie wśród kierownictwa OpenAI. Co ważniejsze, to jest odrębne pytanie od tego, czy firma i świat są na dobrej drodze, aby być przygotowanymi w odpowiednim czasie”.

Jego odejście jest najnowszym w ciągu szeregu znamienitych odchodzeń zespołów bezpieczeństwa OpenAI. Po stwierdzeniu, że “kultura bezpieczeństwa i procesy ustąpiły miejsca lśniącym produktom”, odszedł Jan Leike, wybitny badacz. Ilya Sutskever, współzałożyciel, również odszedł, aby założyć własne przedsiębiorstwo AI specjalizujące się w opracowywaniu bezpiecznej AGI.

Rozwiązanie zespołu “Gotowość do AGI” Brundage’a, które nastąpiło kilka miesięcy po rozwiązaniu zespołu “Superalignment”, podkreśla narastające napięcia między pierwotnym celem OpenAI a jego komercyjnymi aspiracjami. Firma rzekomo stoi pod presją, aby przekształcić się z organizacji non-profit w spółkę celu publicznego w ciągu dwóch lat, w przeciwnym razie może być zmuszona do zwrotu środków z ostatniej rundy inwestycyjnej w wysokości 6,6 miliarda dolarów. Ten przejściowy do komercjalizacji budzi obawy Brundage’a, który wyraził obawy w 2019 roku, gdy OpenAI początkowo utworzyło swoją działalność komercyjną.

Brundage przypisał swoje odejście do rosnących ograniczeń w zakresie swobody jego badań i publikacji w znanej organizacji. Podkreślił konieczność posiadania niezależnych perspektyw w dyskusjach nad polityką w zakresie AI, wolnych od stronniczości przemysłu i konfliktów interesów. Jest przekonany, że teraz może mieć większy wpływ na globalne zarządzanie AI spoza organizacji, mając służący jako doradca dla kierownictwa OpenAI w zakresie przygotowania wewnętrznego.

To odejście może również wskazywać na bardziej głęboki podział kulturowy w OpenAI. Liczni badacze zapisali się, aby posunąć badania AI do przodu, ale teraz stają w obliczu środowiska stającego się coraz bardziej zorientowanym na produkt. Alokacja wewnętrznych zasobów stała się punktem zapalnym; raporty sugerują, że zespołowi Leike’a odmówiono dostępu do mocy obliczeniowej na potrzeby badań nad bezpieczeństwem przed jego ostatecznym rozwiązaniem.

Brundage przyznał, że mimo wspomnianych napięć, OpenAI zaoferował mu finansowanie, kredyty API i wczesny dostęp do modeli bez żadnych warunków.

Trending Topics

Latest News