Były główny naukowiec OpenAI Ilya Sutzkever tworzy firmę Safe Superintelligence w celu opracowania bezpiecznej superinteligentnej sztucznej inteligencji
Ilya Suckever, była główna naukowiec OpenAI, tworzy nową firmę Safe Superintelligence Inc. (SSI), która skupi się wyłącznie na rozwoju bezpiecznej, superinteligentnej sztucznej inteligencji dla ludzkości.
Bezpieczna superinteligencja AI
Nowa firma z wyjątkową misją
Po opuszczeniu OpenAI Ilya Sutzkever założył Safe Superintelligence Inc . (SSI) z przedsiębiorcą Danielem Grossem i byłym współpracownikiem Danielem Levym. Głównym celem nowo utworzonej spółki są badania i rozwój bezpiecznych systemów superinteligentnej sztucznej inteligencji, które mogą przynosić korzyści ludzkości bez negatywnych konsekwencji.
Skoncentruj się na bezpieczeństwie i postępie
W przeciwieństwie do wielu start-upów technologicznych, SSI nie będzie komercyjne presją i będą mogli w pełni skoncentrować się na zapewnieniu niezawodności i bezpieczeństwa rozwijanych systemów AI. Firma ta zamierza unikać rozpraszania uwagi kwestiami zarządzania lub rozwojem produktu, aby efektywnie skalować swoje badania.
Szukaj wiodących ekspertów
SSI obecnie aktywnie poszukuje utalentowanych inżynierów i naukowców do uzupełnienia jest mały, ale oddany zespół. Wszyscy pracownicy firmy będą pracować nad jedną misją – stworzeniem bezpiecznej superinteligentnej sztucznej inteligencji.
Słowniczek
- OpenAI to wiodąca firma zajmująca się badaniami nad sztuczną inteligencją, założona przez Elona Muska i innych.
- Ilya Sutzkever to były główny badacz i współzałożyciel OpenAI, ekspert w dziedzinie sztucznej inteligencji.
- Sam Altman jest byłym dyrektorem generalnym OpenAI.
- Daniel Gross jest przedsiębiorcą i inwestorem, współzałożycielem Cue, startupu przejętego przez Apple w 2013 roku.
- Daniel Levy jest byłym pracownikiem OpenAI, obecnie współzałożycielem SSI.
Link
- Wiadomość Ilyi Sitzkevera na temat utworzenia SSI
- Artykuł The Verge na temat SSI
- Artykuł WSJ na temat konfliktu pomiędzy Sitzkewerem i Altmanem
Odpowiedzi na pytania
Co to jest SSI (Safe Superintelligence Inc.) i jaka jest jego misja?
Kto stoi na czele SSI i jakie są jego biura?
Jakie są zalety modelu biznesowego SSI?
Co wiadomo na temat konfliktu pomiędzy Elonem Muskiem a Samem Altmanem w OpenAI?
Jakie działania podjęli Ilya Suckever i Ian Lake po konflikcie OpenAI?
Hashtagi
Zapisz link do tego artykulu
Dyskusja na ten temat – Były główny naukowiec OpenAI Ilya Sutzkever tworzy firmę Safe Superintelligence w celu opracowania bezpiecznej superinteligentnej sztucznej inteligencji
Ilya Sutzkever, znany badacz sztucznej inteligencji i były główny naukowiec OpenAI, założył nowe laboratorium o nazwie Safe Superintelligence Inc. (SSI). Firma skoncentruje się wyłącznie na tworzeniu superinteligentnej sztucznej inteligencji, która będzie bezpieczna dla ludzkości.
Najnowsze komentarze
8 komentarzy
Napisz komentarz
Twój adres e-mail nie zostanie opublikowany. Wymagane pola są zaznaczone *
Олександра
Naprawdę interesująca wiadomość o uruchomieniu nowej firmy AI SSI! Wydaje się, że skupiają się wyłącznie na bezpieczeństwie rozwoju superinteligentnej sztucznej inteligencji 🤖. Jest to właściwe podejście, ponieważ inteligentne systemy wymagają dokładnego monitorowania i testowania bezpieczeństwa.
Франсуаза
Tak, mnie też zainteresowała ta inicjatywa. Sitzkever jest znanym specjalistą w dziedzinie AI, jego zaangażowanie dodaje wagi projektowi. A bezpieczeństwo AI to rzecz niezwykle ważna 🔐, cieszę się, że takie firmy się pojawiają.
Вольфганг
Co ciekawe, Sitzkever opuścił OpenAI właśnie ze względu na różnice w podejściu do bezpieczeństwa AI. I tutaj będzie mógł skupić się wyłącznie na tym problemie 🕵️♂️. Chociaż osiągnięcie bezpieczeństwa superinteligentnej sztucznej inteligencji nie jest zadaniem łatwym.
Анджей
A słyszałem, że OpenAI miało mnóstwo problemów ze względu na różne wizje bezpieczeństwa pomiędzy Altmanem i Suckeverem 😕. To wspaniale, że Ilya będzie mógł wdrożyć swoje podejście w nowej firmie SSI.
Бруно
Rozumiem sceptycyzm niektórych, ale zdaniem Suckevera są oni niezależni od presji komercyjnej i mogą w pełni poświęcić się bezpieczeństwu AI 🛡️. To świetnie, bo ochrona przed ewentualnymi zagrożeniami powinna być priorytetem.
Ґреґор
Znowu nowa firma AI 🙄? Czy ci goście naprawdę myślą, że mogą osiągnąć superinteligentne bezpieczeństwo oparte na sztucznej inteligencji, nawet nie wiedząc, jak to będzie wyglądać? Co za absurdalna sztuczka 😂, zmarnowane pieniądze i czas.
Ольга
Nie do końca podzielam Twój sceptycyzm, Gregor. Przynajmniej SSI priorytetowo traktuje bezpieczeństwo, a nie tylko stara się jak najszybciej wypuścić nową technologię. W dziedzinie AI to ważny krok 👣.
Анатолій
Zgadzam się, że obecnie trudno jest zagwarantować bezpieczeństwo przyszłej superinteligentnej sztucznej inteligencji 🤖. Ale powinieneś pomyśleć o tym problemie z wyprzedzeniem i opracować podejście, a nie ignorować go. Inicjatywa PIS jest warta uwagi 🧐.