Колишній головний науковий співробітник OpenAI Ілля Суцкевер створює компанію Safe Superintelligence для розробки безпечного надрозумного штучного інтелекту
Ілля Суцкевер, колишній провідний науковець OpenAI, створює нову компанію Safe Superintelligence Inc. (SSI), яка зосередиться виключно на розробленні безпечного надрозумного штучного інтелекту для людства.
Безпечне надрозумне ШІ
Нова компанія з унікальною місією
Після відходу з OpenAI, Ілля Суцкевер заснував Safe Superintelligence Inc. (SSI) разом з підприємцем Даніелем Гроссом і колишнім колегою Даніелем Леві. Головною метою новоствореної компанії є дослідження та розроблення безпечних систем надрозумного штучного інтелекту, здатних принести користь людству без негативних наслідків.
Зосередженість на безпеці та прогресі
На відміну від багатьох технологічних стартапів, SSI не зазнаватиме комерційного тиску та зможе повністю зосередитися на забезпеченні надійності й безпеки розроблюваних ШІ-систем. Ця компанія має намір уникнути відволікань на управлінські питання чи розробку продуктів, щоб ефективно масштабувати свої дослідження.
Пошук провідних фахівців
Наразі SSI активно шукає талановитих інженерів та науковців для поповнення своєї невеликої, але відданої команди. Усі співробітники компанії працюватимуть над єдиною місією – створенням безпечного надрозумного ШІ.
Глосарій
- OpenAI - провідна дослідницька компанія зі штучного інтелекту, заснована Ілоном Маском та іншими.
- Ілля Суцкевер - колишній головний науковий співробітник та співзасновник OpenAI, експерт у галузі ШІ.
- Сем Альтман - колишній генеральний директор OpenAI.
- Даніель Гросс - підприємець та інвестор, співзасновник Cue - стартапу, придбаного Apple у 2013 році.
- Даніель Леві - колишній співробітник OpenAI, тепер співзасновник SSI.
Посилання
- Повідомлення Іллі Суцкевера про створення SSI
- Стаття The Verge про SSI
- Стаття WSJ про конфлікт між Суцкевером та Альтманом
Відповіді на запитання
Що таке SSI (Safe Superintelligence Inc.) і яка її місія?
Хто очолює SSI та які їхні офіси?
Які переваги має бізнес-модель SSI?
Що відомо про конфлікт між Ілоном Маском та Семом Альтманом в OpenAI?
Які дії вжили Ілля Суцкевер та Ян Лейк після конфлікту в OpenAI?
Хештеги
Збережи посилання на цю сторінку
Обговорення теми – Колишній головний науковий співробітник OpenAI Ілля Суцкевер створює компанію Safe Superintelligence для розробки безпечного надрозумного штучного інтелекту
Ілля Суцкевер, відомий дослідник штучного інтелекту та колишній головний науковий співробітник OpenAI, заснував нову лабораторію під назвою Safe Superintelligence Inc. (SSI). Компанія зосередиться виключно на створенні безпечного для людства надрозумного штучного інтелекту.
Останні коментарі
8 коментарів
Написати коментар
Ваша адреса електронної пошти не буде опублікована. Обов'язкові поля відмічені *
Олександра
Справді цікава новина про запуск нової ШІ-компанії SSI! Здається, вони зосереджуються виключно на безпеці розвитку надрозумного ШІ 🤖. Це правильний підхід, адже розумні системи потребують ретельного контролю та тестування безпеки.
Франсуаза
Так, я теж зацікавилася цією ініціативою. Суцкевер - відомий фахівець у сфері ШІ, його залучення надає ваги проєкту. А безпека ШІ - вкрай важлива річ 🔐, радію, що з'являються такі компанії.
Вольфганг
Цікаво, що Суцкевер пішов з OpenAI саме через розбіжності в підходах до безпеки ШІ. А тут зможе зосередитись виключно на цій проблемі 🕵️♂️. Хоча досягнення безпеки надрозумного ШІ - завдання нелегке.
Анджей
А я чув, що в OpenAI були чималі проблеми через різні бачення безпеки між Альтманом і Суцкевером 😕. Чудово, що Ілля зможе реалізувати свій підхід в новій компанії SSI.
Бруно
Розумію скептицизм деяких, але за словами Суцкевера, вони не залежать від комерційного тиску і можуть повністю присвятити себе безпеці ШІ 🛡️. Це чудово, адже захист від можливих загроз має бути пріоритетом.
Ґреґор
Знову нова ШІ-компанія 🙄? Ці хлопці щиро думають, що зможуть досягти безпеки надрозумного ШІ, коли навіть не знають, як він виглядатиме? Який смішний трюк 😂, гроші та час витрачені дарма.
Ольга
Не зовсім розділяю твій скептицизм, Ґреґоре. Принаймні SSI ставить пріоритетом безпеку, а не лише прагне випустити нову технологію якнайшвидше. У сфері ШІ це важливий крок 👣.
Анатолій
Погоджуюсь, що складно наразі гарантувати безпеку майбутнього надрозумного ШІ 🤖. Але слід наперед продумувати цю проблему і розробляти підходи, а не ігнорувати її. Ініціатива SSI варта уваги 🧐.