Бывший главный научный сотрудник OpenAI Илья Суцкевер создает компанию Safe Superintelligence для разработки безопасного сверхумного искусственного интеллекта
Илья Суцкевер, бывший ведущий ученый OpenAI, создает новую компанию Safe Superintelligence Inc. (SSI), которая сосредоточится исключительно на разработке безопасного сверхумного искусственного интеллекта для человечества.
Безопасное сверхумное ИИ
Новая компания с уникальной миссией
После ухода из OpenAI, Илья Суцкевер основал Safe Superintelligence Inc. (SSI) вместе с предпринимателем Даниэлем Гроссом и бывшим коллегой Даниэлем Леви. Главной целью новой компании является исследование и разработка безопасных систем сверхумного искусственного интеллекта, способных принести пользу человечеству без негативных последствий.
Сосредоточенность на безопасности и прогрессе
В отличие от многих технологических стартапов, SSI не будет испытывать коммерческого давления и сможет полностью сосредоточиться на обеспечении надежности и безопасности разрабатываемых ИИ систем. Эта компания намерена избежать отвлечения на управленческие вопросы или разработку продуктов, чтобы эффективно масштабировать свои исследования.
Поиск ведущих специалистов
В настоящее время SSI активно ищет талантливых инженеров и ученых для пополнения своей небольшой , но преданной команды. Все сотрудники компании будут работать над единой миссией – созданием безопасного сверхумного ИИ.
Глоссарий
- OpenAI - ведущая исследовательская компания по искусственному интеллекту, основанная Илоном Маском и другими.
- Илья Суцкевер – бывший главный научный сотрудник и соучредитель OpenAI, эксперт в области ИИ.
- Сэм Альтман – бывший генеральный директор OpenAI.
- Даниэль Гросс – предприниматель и инвестор, соучредитель Cue – стартапа, приобретенного Apple в 2013 году.
- Даниэль Леви – бывший сотрудник OpenAI, теперь соучредитель SSI.
Ссылки
- Сообщение Илье Суцкевера о создании SSI
- Статья The Verge о SSI
- Статья WSJ о конфликте между Суцкевером и Альтманом
Ответы на вопросы
Что такое SSI (Safe Superintelligence Inc.) и какова ее миссия?
Кто возглавляет SSI и какие их офисы?
Какие преимущества имеет бизнес-модель SSI?
Что известно о конфликте между Илоном Маском и Сэмом Альтманом в OpenAI?
Какие действия предприняли Илья Суцкевер и Ян Лейк после конфликта в OpenAI?
Хештеги
Сохрани ссылку на эту статью
Обсуждение темы – Бывший главный научный сотрудник OpenAI Илья Суцкевер создает компанию Safe Superintelligence для разработки безопасного сверхумного искусственного интеллекта
Илья Суцкевер, известный исследователь искусственного интеллекта и бывший главный научный сотрудник OpenAI, основал новую лабораторию под названием Safe Superintelligence Inc. (SSI). Компания сосредоточится исключительно на создании безопасного для человечества сверхумного искусственного интеллекта.
Последние комментарии
8 комментариев
Написать комментарий
Ваш адрес электронной почты не будет опубликован. Обязательные поля отмечены *
Олександра
Действительно интересная новость о запуске новой ШИ-компании SSI! По-моему, они сосредотачиваются исключительно на безопасности развития сверхразумного ИИ 🤖. Это правильный подход, ведь умные системы нуждаются в тщательном контроле и тестировании безопасности.
Франсуаза
Да, я тоже заинтересовалась этой инициативой. Суцкевер – известный специалист в сфере ИИ, его привлечение придает вес проекту. А безопасность ИИ – крайне важная вещь 🔐, радуюсь, что появляются такие компании.
Вольфганг
Интересно, что Суцкевер ушел из OpenAI именно из-за разногласий в подходах к безопасности ИИ. А здесь сможет сосредоточиться исключительно на этой проблеме 🕵️♂️. Хотя достижение безопасности сверхразумного ИИ – задача нелегкая.
Анджей
А я слышал, что у OpenAI были немалые проблемы из-за разных видений безопасности между Альтманом и Суцкевером 😕. Прекрасно, что Илья сможет реализовать свой подход в новой компании SSI.
Бруно
Понимаю скептицизм некоторых, но, по словам Суцкевера, они не зависят от коммерческого давления и могут полностью посвятить себя безопасности ИИ 🛡️. Это отлично, ведь защита от возможных угроз должна быть приоритетом.
Ґреґор
Снова новая ИИ-компания 🙄? Эти ребята искренне думают, что смогут добиться безопасности сверхумного ИИ, когда даже не знают, как он будет выглядеть? Какой смешной трюк 😂, деньги и время потрачены зря.
Ольга
Не совсем разделяю твой скептицизм, Грегор. По крайней мере, SSI ставит приоритетом безопасность, а не только стремится выпустить новую технологию как можно быстрее. В сфере ИИ это важный шаг 👣.
Анатолій
Соглашаюсь, что сложно гарантировать безопасность будущего сверхумного ИИ 🤖. Но следует заранее продумывать эту проблему и разрабатывать подходы, а не игнорировать ее. Инициатива SSI заслуживает внимания 🧐.