Der ehemalige Chefwissenschaftler von OpenAI Ilya Sutzkever gründet das Unternehmen Safe Superintelligence, um sichere superintelligente künstliche Intelligenz zu entwickeln
Ilya Sutzkever, ehemaliger leitender Wissenschaftler von OpenAI, gründet ein neues Unternehmen, Safe Superintelligence Inc. (SSI), das sich ausschließlich auf die Entwicklung sicherer superintelligenter künstlicher Intelligenz für die Menschheit konzentrieren wird.
Sichere Superintelligence-KI
Ein neues Unternehmen mit einer einzigartigen Mission
Nachdem er OpenAI verlassen hatte, gründete Ilya Sutzkever Safe Superintelligence Inc . (SSI) mit Unternehmer Daniel Gross und ehemaligem Kollegen Daniel Levy. Das Hauptziel des neu gegründeten Unternehmens ist die Erforschung und Entwicklung sicherer Systeme superintelligenter künstlicher Intelligenz, die der Menschheit ohne negative Folgen zugute kommen können.
Fokus auf Sicherheit und Fortschritt
Im Gegensatz zu vielen Technologie-Startups wird SSI keine kommerziellen Erfahrungen machen Druck ausgesetzt sein und sich voll und ganz auf die Gewährleistung der Zuverlässigkeit und Sicherheit der entwickelten KI-Systeme konzentrieren können. Dieses Unternehmen möchte die Ablenkung durch Managementthemen oder die Produktentwicklung vermeiden, um seine Forschung effizient zu skalieren.
Suche nach führenden Experten
SSI sucht derzeit aktiv nach talentierten Ingenieuren und Wissenschaftlern als Ergänzung Es ist zwar klein, aber ein engagiertes Team. Alle Mitarbeiter des Unternehmens werden an einer einzigen Mission arbeiten – eine sichere, superintelligente KI zu schaffen.
Glossar
- OpenAI ist ein führendes Forschungsunternehmen für künstliche Intelligenz, das von Elon Musk und anderen gegründet wurde.
- Ilya Sutzkever ist ein ehemaliger Chefforscher und Mitbegründer von OpenAI, einem Experten auf dem Gebiet der KI.
- Sam Altman ist der ehemalige CEO von OpenAI.
- Daniel Gross ist Unternehmer und Investor, Mitbegründer von Cue, einem Startup, das 2013 von Apple übernommen wurde.
- Daniel Levy ist ein ehemaliger Mitarbeiter von OpenAI, jetzt Mitbegründer von SSI.
Link
- Ilya Sutzkevers Botschaft über die Gründung von SSI
- The Verge-Artikel über SSI
- WSJ-Artikel über den Konflikt zwischen Sutzkewer und Altman
Antworten auf Fragen
Was ist SSI (Safe Superintelligence Inc.) und was ist ihre Mission?
Wer leitet SSI und welche Büros hat es?
Welche Vorteile bietet das SSI-Geschäftsmodell?
Was ist über den Konflikt zwischen Elon Musk und Sam Altman in OpenAI bekannt?
Welche Maßnahmen ergriffen Ilya Sutzkever und Ian Lake nach dem OpenAI-Konflikt?
Hashtags
Den Link zu diesem Artikel speichern
Diskussion über das Thema – Der ehemalige Chefwissenschaftler von OpenAI Ilya Sutzkever gründet das Unternehmen Safe Superintelligence, um sichere superintelligente künstliche Intelligenz zu entwickeln
Ilya Sutzkever, ein bekannter Forscher für künstliche Intelligenz und ehemaliger Chefwissenschaftler von OpenAI, gründete ein neues Labor namens Safe Superintelligence Inc. (SSI). Das Unternehmen wird sich ausschließlich auf die Entwicklung superintelligenter künstlicher Intelligenz konzentrieren, die für die Menschheit sicher ist.
Letzte Kommentare
8 Kommentare
Kommentar schreiben
Ihre E-Mail Adresse wird nicht veröffentlicht. Erforderliche Felder sind angekreuzt *
Олександра
Wirklich interessante Neuigkeiten zum Start des neuen KI-Unternehmens SSI! Sie scheinen sich ausschließlich auf die Sicherheit der Entwicklung superintelligenter KI zu konzentrieren 🤖. Das ist der richtige Ansatz, denn intelligente Systeme erfordern eine sorgfältige Überwachung und Sicherheitsprüfung.
Франсуаза
Ja, ich war auch an dieser Initiative interessiert. Sutzkever ist ein bekannter Spezialist auf dem Gebiet der KI, sein Engagement verleiht dem Projekt Gewicht. Und KI-Sicherheit ist eine extrem wichtige Sache 🔐, ich freue mich, dass solche Unternehmen auftauchen.
Вольфганг
Interessanterweise verließ Sutzkever OpenAI gerade wegen der unterschiedlichen Ansätze zur KI-Sicherheit. Und hier kann er sich ausschließlich auf dieses Problem konzentrieren 🕵️♂️. Obwohl es keine leichte Aufgabe ist, die Sicherheit superintelligenter KI zu erreichen.
Анджей
Und ich habe gehört, dass OpenAI aufgrund der unterschiedlichen Sicherheitsvorstellungen zwischen Altman und Sutzkever viele Probleme hatte 😕. Es ist wunderbar, dass Ilya seinen Ansatz im neuen Unternehmen SSI umsetzen kann.
Бруно
Ich verstehe die Skepsis einiger, aber laut Sutzkever sind sie unabhängig vom kommerziellen Druck und können sich voll und ganz der KI-Sicherheit widmen 🛡️. Das ist großartig, denn der Schutz vor möglichen Bedrohungen sollte im Vordergrund stehen.
Ґреґор
Schon wieder ein neues KI-Unternehmen 🙄? Glauben diese Leute wirklich, dass sie eine superintelligente KI-Sicherheit erreichen können, wenn sie noch nicht einmal wissen, wie sie aussehen wird? Was für ein lächerlicher Trick 😂, Geld- und Zeitverschwendung.
Ольга
Ich teile deine Skepsis nicht ganz, Gregor. Zumindest legt SSI Wert auf Sicherheit und versucht nicht nur, neue Technologien so schnell wie möglich auf den Markt zu bringen. Im Bereich KI ist dies ein wichtiger Schritt 👣.
Анатолій
Ich stimme zu, dass es derzeit schwierig ist, die Sicherheit zukünftiger superintelligenter KI zu gewährleisten 🤖. Aber man sollte sich über dieses Problem im Vorfeld Gedanken machen und Lösungsansätze entwickeln und es nicht außer Acht lassen. Die SSI-Initiative ist Aufmerksamkeit wert 🧐.