OpenAI готовит революционную ШИ-модель на пути к AGI
OpenAI начала подготовку новой передовой модели искусственного интеллекта и сформировала Комитет по безопасности и защите, сосредоточившись на дальнейшем развитии возможностей на пути к общему искусственному интеллекту (AGI).
Новая модель ИИ
Намерения OpenAI
Научно-исследовательская компания OpenAI начала обучение следующей флагманской модели искусственного интеллекта, имея на цели достичь нового уровня возможностей на пути создания общего искусственного интеллекта (AGI). В то же время они создали Комитет по безопасности и защите для обеспечения надлежащего контроля и управления проектами.
Задания Комитета
Вновь созданный Комитет по безопасности и защите будет предоставлять рекомендации Правлению OpenAI по вопросам рисков и безопасности их проектов в области искусственного интеллекта Первоочередной задачей Комитета является оценка и совершенствование процессов и средств защиты компании в течение следующих 90 дней. По истечении этого срока они должны поделиться своими выводами и рекомендациями с Правлением, а OpenAI публично обнародует принятые решения.
Состав Комитета
Комитет будут возглавлять директора Брет Тейлор, Адам Д'Анджело, Николь Селигман и генеральный директор и соучредитель Сэм Альтман. В состав также войдут технические и политические эксперты компании, в частности Якуб Пахоцки, заменивший Илью Суцкевера в должности главного научного сотрудника. Кроме того, Комитет будет консультироваться с другими внешними экспертами по безопасности.
Предпосылки изменений
Эти шаги OpenAI проходят на фоне прошлогодних событий, связанных с руководством компании. В ноябре 2023 года Сэма Альтмана временно отстранили от должности генерального директора из-за проблем с откровенностью в общении с советом директоров. Однако, по данным СМИ, настоящая причина заключалась в разногласиях между Альтманом и Ильей Суцкевером по поводу приоритетов: безопасность или продвижение новых технологий.
Глоссарий
- OpenAI – ведущая научно-исследовательская компания в сфере искусственного интеллекта, известная своими инновационными моделями, такими как ChatGPT.
- Общий искусственный интеллект (AGI) – гипотетическая концепция искусственного интеллекта, который может выполнять любые интеллектуальные задачи на уровне или выше человеческого.
- Илья Суцкевер – бывший главный научный сотрудник OpenAI, известный своим ударением на безопасности искусственного интеллекта.
- Сэм Альтман – генеральный директор и соучредитель OpenAI.
Ссылки
- OpenAI: Комитет по безопасности и защите
- The Wall Street Journal: Илья Суцкевер, гений OpenAI, который сообщил Сэму Альтману о его увольнении
Ответы на вопросы
Какую новую инициативу запускает OpenAI?
Какие задачи будет выполнять новый Комитет по безопасности и защите OpenAI?
Кто будет возглавлять новый Комитет по безопасности и защите OpenAI?
Почему OpenAI создала Комитет по безопасности и защите?
Какие проблемы предшествовали созданию Комитета безопасности и защиты в OpenAI?
Хештеги
Сохрани ссылку на эту статью
Обсуждение темы – OpenAI готовит революционную ШИ-модель на пути к AGI
OpenAI начала обучение следующей мощной модели искусственного интеллекта и создала Комитет по безопасности и защите для продвижения к общему искусственному интеллекту (AGI). Несмотря на роспуск команды по долгосрочным рискам ИИ, компания стремится добиться нового уровня в развитии AI.
Последние комментарии
8 комментариев
Написать комментарий
Ваш адрес электронной почты не будет опубликован. Обязательные поля отмечены *
Ева
Интересно будет увидеть, как OpenAI справится с новыми вызовами в области ИИ. 🤔 Надеюсь, они будут более открытыми и прозрачными в своей работе над новой моделью.
Юрій
Конечно, развитие AGI – это увлекательный путь, но меня волнует вопрос безопасности и этики. 🧐 Как гарантировать, что новая модель не будет использована во вредных целях? Есть ли у OpenAI надлежащие механизмы контроля?
Марта
Мне интересно, сможет ли новая модель OpenAI понять сложные эмоции и контекст? 🤔 Это ключевая проблема на пути к AGI. К примеру, сможет ли она распознавать сарказм или подтекст в общении?
Оскар
Я хотел бы услышать больше деталей о том, как они планируют обеспечить безопасность и контроль над новой моделью. 😕 Будут ли они устанавливать определенные ограничения или правила использования? Это очень важно для общественного доверия.
Зиґмунт
А разве эти новомодные штучки действительно полезны? 😒 Вместо тратить силы на AGI, лучше бы улучшили существующие технологии, которые уже приносят пользу людям. Я не доверяю этим фантазиям о сверхинтеллекте.
Ева
Зигмунт, я понимаю твою обеспокоенность, но прогресс в области ИИ – это неизбежность. 💡 Вместо того чтобы сопротивляться изменениям, лучше сосредоточиться на обеспечении их безопасности и управляемости. Только так мы сможем максимизировать пользу новых технологий.
Юрій
Полностью согласен с Эвой. Развитие AGI открывает новые возможности для решения глобальных проблем человечества. 🌍 Представьте, если мы сможем использовать его для борьбы с изменениями климата, болезнями или даже голодом! Но все зависит от нравственного подхода.
Марта
Меня очень интересует, как OpenAI планирует обеспечить понимание контекста и эмоций в своей новой модели. 🤔 Это ключевая проблема на пути к AGI. К примеру, сможет ли она распознавать сарказм или скрытые мотивы в общении между людьми? Это будет настоящим прорывом! 🚀