Você está visualizando atualmente SUIÇA: OpenAI não sabe como sua IA realmente funciona
Algumas empresas estão tentando “abrir a caixa preta” do mistério, mapeando os neurônios artificiais de seus algoritmos

SUIÇA: OpenAI não sabe como sua IA realmente funciona

Segundo Sam Altman, CEO da startup, a empresa também não compreende completamente seus grandes modelos de linguagem (LLM)

Ao que tudo indica, não são apenas os usuários do ChatGPT que não entendem bem o funcionamento da inteligência artificial (IA) da OpenAI. Segundo Sam Altman, CEO da startup, a empresa também não compreende completamente seus grandes modelos de linguagem (LLM), indicando um problema de “interpretabilidade”.

O que você precisa saber: 

  • Questionado durante a Cúpula Global de IA em Genebra, Suíça, o CEO disse que a empresa ainda não descobriu como rastrear os resultados imprecisos dos seus modelos de IA e as decisões que ele toma para chegar as respostas;
  • Ele garantiu, no entanto, que as IAs da startup são “seguras e robustas”;
  • De acordo com o Futurism, a resposta desconcertada de Altman reforça os problemas da IA quanto a disseminação de fake news e informações erradas.

Vale lembrar que, recentemente, um relatório encomendado pelo governo do Reino Unido concluiu que os criadores de IA de fato “compreendem pouco sobre como os seus sistemas funcionam” e que o conhecimento científico “muito limitado”.

“As técnicas de explicação e interpretabilidade do modelo podem melhorar a compreensão dos pesquisadores e desenvolvedores sobre como funcionam os sistemas de IA de uso geral. Mas esta pesquisa no começo”. Apontou a o levantamento.

Algumas empresas estão tentando “abrir a caixa preta” do mistério. Mapeando os neurônios artificiais de seus algoritmos. A Anthropic, por exemplo, iniciou recentemente um levantamento detalhado sobre o funcionamento interno de seus mais recente LLM, o Claude Sonnet.

“A Anthropic fez um investimento significativo em pesquisas de interpretabilidade desde a fundação da empresa, porque acreditamos que compreender profundamente os modelos nos ajudará a torná-los mais seguros. Mas o trabalho realmente apenas começou. Compreender as representações que o modelo usa não nos diz como ele as utiliza. Mesmo que tenhamos os recursos, ainda precisamos encontrar os circuitos nos quais eles estão envolvidos”.  Disse, Anthropic em comunicado.

A ‘confissão’ de Altman chega após a OpenAI anunciar que os projetos com IA da startup passarão a ter uma nova equipe responsável para garantir a produção segura das tecnologias. A equipe será liderada diretamente CEO da companhia.

Fonte: olhardigital