O novo conselho de segurança da OpenAI tem mais poder e não há Sam Altman

O novo conselho de segurança da OpenAI tem mais poder e não há Sam Altman


OpenAI tem anunciado mudanças significativas em suas práticas de segurança e proteção, incluindo o estabelecimento de um novo comitê de supervisão do conselho independente. Essa mudança vem com uma mudança notável: o CEO Sam Altman não faz mais parte do comitê de segurança, marcando um afastamento da estrutura anterior.

O recém-formado Safety and Security Committee (SSC) será presidido por Zico Kolter, Diretor do Machine Learning Department da Carnegie Mellon University. Outros membros importantes incluem o CEO da Quora, Adam D'Angelo, o general aposentado do Exército dos EUA Paul Nakasone e Nicole Seligman, ex-EVP e Conselheira Geral da Sony Corporation.

Este novo comitê substitui o anterior Safety and Security Committee que foi formado em junho de 2024, que incluía Altman entre seus membros. O comitê original foi encarregado de fazer recomendações sobre decisões críticas de segurança para projetos e operações da OpenAI.

As responsabilidades do SSC agora vão além das recomendações. Ele terá autoridade para supervisionar avaliações de segurança para lançamentos de modelos importantes e exercer supervisão sobre lançamentos de modelos. Crucialmente, o comitê terá o poder de atrasar um lançamento até que as preocupações com segurança sejam adequadamente abordadas.

Esta reestruturação segue um período de escrutínio sobre o comprometimento da OpenAI com a segurança da IA. A empresa enfrentou críticas no passado por dissolver sua equipe de Superalignment e as saídas de pessoal-chave focado em segurança. A remoção de Altman do comitê de segurança parece ser uma tentativa de abordar preocupações sobre potenciais conflitos de interesse na supervisão de segurança da empresa.

A mais recente iniciativa de segurança da OpenAI também inclui planos para aprimorar medidas de segurança, aumentar a transparência sobre seu trabalho e colaborar com organizações externas. A empresa já fechou acordos com os Institutos de Segurança de IA dos EUA e do Reino Unido para colaborar na pesquisa de riscos emergentes de segurança de IA e padrões para IA confiável.



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *