19 сентября, 03:20

OpenAI создает независимый комитет для оценки безопасности ИИ

РР - все новости
РР - все новости
OpenAI создала независимый "Комитет по надзору Совета директоров" для оценки безопасности моделей ИИ. Новый комитет, состоящий из четырех членов, будет следить за запуском и получать регулярные отчёты. Параллельно компания планирует укрепить сотрудничество в сфере безопасности с другими игроками индустрии.
OpenAI создает независимый орган для приостановки работы опасных ИИ-моделей  Компания OpenAI объявила о кардинальных изменениях в своей структуре. Комитет по безопасности и защите компании был реорганизован в независимый наблюдательный орган, подчиняющийся непосредственно совету директоров. Новое подразделение получило беспрецедентные полномочия, включая право приостанавливать релизы моделей в случае обнаружения потенциальных угроз.  Решение о реорганизации было принято после 90-дневного анализа ситуации. Компания подчеркивает, что эти изменения отражают растущее осознание важности этических аспектов развития ИИ.  The Verge задается вопросом, учитывая, что члены комитета по безопасности также являются членами совета директоров OpenAI, не очень понятно, насколько независим комитет на самом деле    TMT Channel   Подписаться
TMT Channel
TMT Channel
OpenAI создает независимый орган для приостановки работы опасных ИИ-моделей Компания OpenAI объявила о кардинальных изменениях в своей структуре. Комитет по безопасности и защите компании был реорганизован в независимый наблюдательный орган, подчиняющийся непосредственно совету директоров. Новое подразделение получило беспрецедентные полномочия, включая право приостанавливать релизы моделей в случае обнаружения потенциальных угроз. Решение о реорганизации было принято после 90-дневного анализа ситуации. Компания подчеркивает, что эти изменения отражают растущее осознание важности этических аспектов развития ИИ. The Verge задается вопросом, учитывая, что члены комитета по безопасности также являются членами совета директоров OpenAI, не очень понятно, насколько независим комитет на самом деле TMT Channel Подписаться
OpenAI объявила о создании независимого наблюдательного органа, который будет контролировать вопросы безопасности при разработке ИИ-моделей. Новая структура получила полномочия приостанавливать релизы моделей, если возникают риски для безопасности.  Это решение было принято по итогам 90-дневного анализа мер безопасности компании. Комитет по безопасности возглавил Зико Колтер, а в его состав вошли Адам Д Анджело, Пол Накасоне и Николь Селигман. Генеральный директор OpenAI Сэм Альтман больше не является членом этого комитета. Основная задача нового органа — оценка безопасности и предотвращение потенциальных угроз, связанных с новыми релизами ИИ.
был бы ты человек - IT, digital
был бы ты человек - IT, digital
OpenAI объявила о создании независимого наблюдательного органа, который будет контролировать вопросы безопасности при разработке ИИ-моделей. Новая структура получила полномочия приостанавливать релизы моделей, если возникают риски для безопасности. Это решение было принято по итогам 90-дневного анализа мер безопасности компании. Комитет по безопасности возглавил Зико Колтер, а в его состав вошли Адам Д Анджело, Пол Накасоне и Николь Селигман. Генеральный директор OpenAI Сэм Альтман больше не является членом этого комитета. Основная задача нового органа — оценка безопасности и предотвращение потенциальных угроз, связанных с новыми релизами ИИ.
Забирай эксклюзивное предложение для пользователей Tek.fm
        
        *Предложение ограничено
Tek.fm
Tek.fm
Забирай эксклюзивное предложение для пользователей Tek.fm *Предложение ограничено
OpenAI создала независимый орган с правом приостанавливать выпуск ИИ-моделей по соображениям безопасности  OpenAI преобразовала свой Комитет по безопасности и защите в независимый Комитет по надзору совета директоров, наделенный полномочиями приостанавливать запуск моделей из-за опасений по безопасности.  Комитет, возглавляемый Зико Колтером, также включает Адама Д Анджело, Пола Накасоне и Николь Селигман. Сэм Альтман больше не является его членом.   Орган будет контролировать релизы, задерживая их при обнаружении проблем с безопасностью. Новая структура вызывает вопросы о своей независимости, так как все ее члены входят в совет директоров OpenAI.  Мы из будущего
Мы из будущего
Мы из будущего
OpenAI создала независимый орган с правом приостанавливать выпуск ИИ-моделей по соображениям безопасности OpenAI преобразовала свой Комитет по безопасности и защите в независимый Комитет по надзору совета директоров, наделенный полномочиями приостанавливать запуск моделей из-за опасений по безопасности. Комитет, возглавляемый Зико Колтером, также включает Адама Д Анджело, Пола Накасоне и Николь Селигман. Сэм Альтман больше не является его членом. Орган будет контролировать релизы, задерживая их при обнаружении проблем с безопасностью. Новая структура вызывает вопросы о своей независимости, так как все ее члены входят в совет директоров OpenAI. Мы из будущего
РР - все новости
РР - все новости
OpenAI переименовала свой комитет по безопасности в "независимый комитет по надзору за правлением". Новый орган, возглавляемый экспертами из сферы технологий и обороны, сможет задерживать запуск новых моделей ИИ до устранения проблем с безопасностью. Это шаг к повышению стандартов безопасности в индустрии.
В OpenAI появилась команда безопасности    Компания объявила о создании независимого комитета по безопасности, который получил полномочия приостанавливать релизы ИИ-моделей, если вдруг возникнут сомнения.  Несмотря на независимость, все члены комитета входят в совет директоров OpenAI, что вызывает вопросы об уровне автономности. Однако, примечательно, что генеральный директор Сэм Альтман членом всё же не является.  OpenAI также планирует расширить сотрудничество с другими компаниями в области ИИ, чтобы улучшить обмен информацией о безопасности, но конкретные шаги пока не определены.  Источник
Технопроходцы
Технопроходцы
В OpenAI появилась команда безопасности Компания объявила о создании независимого комитета по безопасности, который получил полномочия приостанавливать релизы ИИ-моделей, если вдруг возникнут сомнения. Несмотря на независимость, все члены комитета входят в совет директоров OpenAI, что вызывает вопросы об уровне автономности. Однако, примечательно, что генеральный директор Сэм Альтман членом всё же не является. OpenAI также планирует расширить сотрудничество с другими компаниями в области ИИ, чтобы улучшить обмен информацией о безопасности, но конкретные шаги пока не определены. Источник
Loading indicator gif