[ad_1] <br><img src="https://s2-g1.glbimg.com/RaiDasIm-I9ky3sfX4SX9kUgBfI=/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/3/2/RdH8a6RoeLJPAQXoKvTg/sam-altman-openai.jpg" /><br /> Sam Altman, ex-CEO da OpenAI, em foto de junho de 2023 AP Photo/Jon Gambrell O CEO da OpenAI, Sam Altman, pediu desculpas à cidade canadense de Tumbler Ridge após um ataque perpetrado por uma ex-usuária do ChatGPT matar oito pessoas em fevereiro. Altman disse estar "profundamente arrependido" por a empresa não ter alertado a polícia sobre conteúdos preocupantes da usuária no ChatGPT. O primeiro-ministro da província canadense da Colúmbia Britânica, David Eby, classificou o pedido de desculpas como "necessário, e ainda assim grosseiramente insuficiente". Ataque a tiros em escola e casa deixa 10 mortos e 25 feridos no Canadá Atiradora foi banida do ChatGPT oito meses antes Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa, antes de ir a uma escola secundária local e abrir fogo. Ela matou cinco crianças e um professor e, em seguida, tirou a própria vida. Após o ataque, a OpenAI afirmou ter identificado a conta da suspeita por meio de seus sistemas de detecção de abuso e banido-a do chatbot ainda em junho, oito meses antes da tragédia. A empresa disse que não reportou a conta à polícia canadense na época porque a atividade não teria sido grave o suficiente para justificar um encaminhamento às autoridades. "Estou profundamente arrependido por não termos alertado as autoridades policiais sobre a conta que foi banida em junho", disse Altman na carta enviada a Eby e divulgada nesta sexta-feira (24/04). "Embora eu saiba que palavras nunca são suficientes, acredito que um pedido de desculpas é necessário para reconhecer o dano e a perda irreversível que sua comunidade sofreu." Altman também justificou o pedido de desculpas mais de dois meses depois da tragédia, alegando que queria respeitar o luto dos moradores de Tumbler Ridge. Initial plugin text Como o ChatGPT denuncia suspeitas de violência? A OpenAI afirma que usa sistemas automatizados de moderação que analisam conteúdos em tempo real. Contas podem ser restringidas ou banidas por violar as regras. As violações incluem exploração sexual, apoio à automutilação e ao suicídio, e promoção de violência e danos. Em casos graves, os sistemas são projetados para sinalizar comportamentos de alto risco para revisão humana. Se uma ameaça crível for identificada, a empresa pode compartilhar dados relevantes da conta com as autoridades policiais. Após o ataque, autoridades canadenses convocaram a equipe de segurança da OpenAI e ameaçaram responder com ações regulatórias caso mudanças não fossem feitas. A empresa afirmou que iria reforçar suas medidas de segurança e que criou um canal de contato direto com a polícia. Na carta, Altman disse que a OpenAI está comprometida em encontrar formas de evitar tragédias semelhantes. "Daqui para frente, nosso foco continuará sendo trabalhar com todos os níveis de governo para ajudar a garantir que algo assim nunca aconteça novamente", afirmou. A família de uma menina que ficou gravemente ferida no tiroteio entrou com uma ação judicial por negligência contra a gigante de tecnologia dos Estados Unidos. Eles alegam que a OpenAI sabia que a atiradora planejava um "evento com mortes em massa", mas não "adotou nenhuma medida". VEJA TAMBÉM Google e Chat GPT não são médicos; conheça os riscos de se informar somente com eles <br>[ad_2] <br><a href="https://g1.globo.com/tecnologia/noticia/2026/04/25/ceo-da-openai-pede-desculpas-por-nao-alertar-a-policia-sobre-suspeita-de-tiroteio-em-massa.ghtml">Source link </a>