L'ex capo scienziato di OpenAI Ilya Sutzkever crea la società Safe Superintelligence per sviluppare un'intelligenza artificiale superintelligente sicura
Ilya Sutzkever, ex scienziato capo di OpenAI, crea una nuova società Safe Superintelligence Inc. (SSI), che si concentrerà esclusivamente sullo sviluppo di un’intelligenza artificiale superintelligente sicura per l’umanità.
Safe superintelligence AI
Una nuova azienda con una missione unica
Dopo aver lasciato OpenAI, Ilya Sutzkever ha fondato Safe Superintelligence Inc . (SSI) con l'imprenditore Daniel Gross e l'ex collega Daniel Levy. L'obiettivo principale della società appena creata è ricercare e sviluppare sistemi sicuri di intelligenza artificiale superintelligente che possano avvantaggiare l'umanità senza conseguenze negative.
Focus su sicurezza e progresso
A differenza di molte startup tecnologiche, SSI non sperimenterà pressione e sarà in grado di concentrarsi pienamente sulla garanzia dell’affidabilità e della sicurezza dei sistemi di intelligenza artificiale sviluppati. Questa azienda intende evitare la distrazione da problemi di gestione o di sviluppo del prodotto al fine di ampliare in modo efficiente la propria ricerca.
Ricerca di esperti leader
SSI è attualmente alla ricerca attiva di ingegneri e scienziati di talento da integrare è piccolo, ma un team dedicato. Tutti i dipendenti dell'azienda lavoreranno su un'unica missione: creare un'intelligenza artificiale super intelligente sicura.
Glossario
- OpenAI è un'azienda leader nella ricerca sull'intelligenza artificiale fondata da Elon Musk e altri.
- Ilya Sutzkever è un ex capo ricercatore e co-fondatore di OpenAI, un esperto nel campo dell'intelligenza artificiale.
- Sam Altman è l'ex CEO di OpenAI.
- Daniel Gross è un imprenditore e investitore, co-fondatore di Cue, startup acquisita da Apple nel 2013.
- Daniel Levy è un ex dipendente di OpenAI, ora co-fondatore di SSI.
Link
- Messaggio di Ilya Sutzkever sulla creazione di SSI
- Articolo di The Verge sull'SSI
- Articolo del WSJ sul conflitto tra Sutzkewer e Altman
Risposte alle domande
Che cos'è SSI (Safe Superintelligence Inc.) e qual è la sua missione?
Chi dirige SSI e quali sono i suoi uffici?
Quali sono i vantaggi del modello di business SSI?
Cosa si sa del conflitto tra Elon Musk e Sam Altman in OpenAI?
Quali azioni hanno intrapreso Ilya Sutzkever e Ian Lake dopo il conflitto OpenAI?
Hashtags
Salva un link a questo articolo
Discussione sull'argomento – L'ex capo scienziato di OpenAI Ilya Sutzkever crea la società Safe Superintelligence per sviluppare un'intelligenza artificiale superintelligente sicura
Ilya Sutzkever, un noto ricercatore di intelligenza artificiale ed ex capo scienziato di OpenAI, ha fondato un nuovo laboratorio chiamato Safe Superintelligence Inc. (SSI). L’azienda si concentrerà esclusivamente sulla creazione di un’intelligenza artificiale super intelligente sicura per l’umanità.
Ultimi commenti
8 commenti
Scrivi un commento
Il tuo indirizzo e-mail non sarà pubblicato. I campi obbligatori sono spuntati *
Олександра
Novità davvero interessanti sul lancio della nuova società di intelligenza artificiale SSI! Sembrano concentrarsi esclusivamente sulla sicurezza dello sviluppo di un'intelligenza artificiale super intelligente 🤖. Questo è l’approccio giusto, perché i sistemi intelligenti richiedono un attento monitoraggio e test di sicurezza.
Франсуаза
Sì, anch'io ero interessato a questa iniziativa. Sutzkever è un noto specialista nel campo dell'intelligenza artificiale, il suo coinvolgimento dà peso al progetto. E la sicurezza dell'intelligenza artificiale è una cosa estremamente importante 🔐, sono contento che appaiano aziende del genere.
Вольфганг
È interessante notare che Sutzkever ha lasciato OpenAI proprio a causa delle differenze nell’approccio alla sicurezza dell’IA. E qui potrà concentrarsi esclusivamente su questo problema 🕵️♂️. Anche se raggiungere la sicurezza dell’intelligenza artificiale superintelligente non è un compito facile.
Анджей
E ho sentito che OpenAI ha avuto molti problemi a causa delle diverse visioni della sicurezza tra Altman e Sutzkever 😕. È meraviglioso che Ilya possa implementare il suo approccio nella nuova azienda SSI.
Бруно
Capisco lo scetticismo di alcuni, ma secondo Sutzkever sono indipendenti dalle pressioni commerciali e possono dedicarsi completamente alla sicurezza dell'IA 🛡️. Questo è fantastico, perché la protezione contro possibili minacce dovrebbe essere una priorità.
Ґреґор
Di nuovo una nuova società di intelligenza artificiale 🙄? Questi ragazzi pensano davvero di poter ottenere una sicurezza IA super intelligente quando non sanno nemmeno come sarà? Che trucco ridicolo 😂, soldi e tempo sprecati.
Ольга
Non condivido del tutto il tuo scetticismo, Gregor. Almeno SSI sta dando priorità alla sicurezza e non sta semplicemente cercando di rilasciare nuove tecnologie il prima possibile. Nel campo dell'intelligenza artificiale, questo è un passo importante 👣.
Анатолій
Sono d'accordo che attualmente sia difficile garantire la sicurezza della futura IA superintelligente 🤖. Ma dovresti pensare a questo problema in anticipo e sviluppare approcci e non ignorarlo. Merita attenzione l'iniziativa SSI 🧐.