OpenAI готує революційну ШІ-модель на шляху до AGI
OpenAI розпочала підготовку нової передової моделі штучного інтелекту та сформувала Комітет із безпеки та захисту, зосередившись на подальшому розвитку можливостей на шляху до загального штучного інтелекту (AGI).
Нова модель ШІ
Наміри OpenAI
Науково-дослідницька компанія OpenAI розпочала навчання наступної флагманської моделі штучного інтелекту, маючи на меті досягти нового рівня можливостей на шляху до створення загального штучного інтелекту (AGI). Водночас, вони утворили Комітет з безпеки та захисту для забезпечення належного контролю та керування проєктами.
Завдання Комітету
Новостворений Комітет з безпеки та захисту надаватиме рекомендації Правлінню OpenAI з питань ризиків та безпеки їхніх проєктів у сфері штучного інтелекту. Першочерговим завданням Комітету є оцінка та вдосконалення процесів і засобів захисту компанії протягом наступних 90 днів. По завершенні цього терміну, вони мають поділитися своїми висновками та рекомендаціями з Правлінням, а OpenAI публічно оприлюднить прийняті рішення.
Склад Комітету
Комітет очолюватимуть директори Брет Тейлор, Адам Д'Анджело, Ніколь Селігман та генеральний директор і співзасновник Сем Альтман. До складу також увійдуть технічні та політичні експерти компанії, зокрема Якуб Пахоцкі, який замінив Іллю Суцкевера на посаді головного наукового співробітника. Крім того, Комітет консультуватиметься з іншими зовнішніми експертами з питань безпеки.
Передумови змін
Ці кроки OpenAI відбуваються на тлі минулорічних подій, пов'язаних із керівництвом компанії. У листопаді 2023 року Сема Альтмана тимчасово відсторонили від посади генерального директора через проблеми з відвертістю у спілкуванні з радою директорів. Проте, за даними ЗМІ, справжня причина полягала у розбіжностях між Альтманом та Іллєю Суцкевером щодо пріоритетів: безпека чи просування нових технологій.
Глосарій
- OpenAI - провідна науково-дослідницька компанія у сфері штучного інтелекту, відома своїми інноваційними моделями, такими як ChatGPT.
- Загальний штучний інтелект (AGI) - гіпотетична концепція штучного інтелекту, який може виконувати будь-які інтелектуальні завдання на рівні або вище людського.
- Ілля Суцкевер - колишній головний науковий співробітник OpenAI, відомий своїм наголосом на безпеці штучного інтелекту.
- Сем Альтман - генеральний директор та співзасновник OpenAI.
Посилання
- OpenAI: Комітет з безпеки та захисту
- The Wall Street Journal: Ілля Суцкевер, геній OpenAI, який повідомив Сему Альтману про його звільнення
Відповіді на запитання
Яку нову ініціативу запускає OpenAI?
Які завдання виконуватиме новий Комітет з безпеки та захисту OpenAI?
Хто очолюватиме новий Комітет з безпеки та захисту OpenAI?
Чому OpenAI створила Комітет із безпеки та захисту?
Які проблеми передували створенню Комітету безпеки та захисту в OpenAI?
Хештеги
Збережи посилання на цю сторінку
Обговорення теми – OpenAI готує революційну ШІ-модель на шляху до AGI
OpenAI розпочала навчання наступної потужної моделі штучного інтелекту та створила Комітет з безпеки й захисту для просування до загального штучного інтелекту (AGI). Попри розпуск команди з довгострокових ризиків ШІ, компанія прагне досягти нового рівня в розвитку AI.
Останні коментарі
8 коментарів
Написати коментар
Ваша адреса електронної пошти не буде опублікована. Обов'язкові поля відмічені *
Ева
Цікаво буде побачити, як OpenAI впорається з новими викликами в галузі ШІ. 🤔 Сподіваюся, вони будуть більш відкритими та прозорими у своїй роботі над новою моделлю.
Юрій
Звісно, розвиток AGI - це захопливий шлях, але мене хвилює питання безпеки та етики. 🧐 Як гарантувати, що нова модель не буде використана в шкідливих цілях? Чи є в OpenAI належні механізми контролю?
Марта
Мені цікаво, чи зможе нова модель OpenAI зрозуміти складні людські емоції та контекст? 🤔 Це ключова проблема на шляху до AGI. Наприклад, чи зможе вона розпізнавати сарказм або підтекст у спілкуванні?
Оскар
Я б хотів почути більше деталей про те, як вони планують забезпечити безпеку та контроль над новою моделлю. 😕 Чи будуть вони встановлювати певні обмеження або правила використання? Це дуже важливо для суспільної довіри.
Зиґмунт
А хіба ці новомодні штучки справді корисні? 😒 Замість витрачати сили на AGI, краще б покращили існуючі технології, які вже приносять користь людям. Я не довіряю цим фантазіям про надінтелект.
Ева
Зиґмунте, я розумію твою стурбованість, але прогрес у галузі ШІ - це неминучість. 💡 Замість того, щоб опиратися змінам, краще зосередитися на забезпеченні їхньої безпеки та керованості. Тільки так ми зможемо максимізувати користь від нових технологій.
Юрій
Повністю згоден з Евою. Розвиток AGI відкриває нові можливості для вирішення глобальних проблем людства. 🌍 Уявіть, якщо ми зможемо використати його для боротьби зі змінами клімату, хворобами чи навіть голодом! Але все залежить від етичного підходу.
Марта
Мене дуже цікавить, як OpenAI планує забезпечити розуміння контексту та емоцій у своїй новій моделі. 🤔 Це ключова проблема на шляху до AGI. Наприклад, чи зможе вона розпізнавати сарказм або приховані мотиви у спілкуванні між людьми? Це буде справжнім проривом! 🚀