Você está visualizando atualmente New York Times proíbe que seu conteúdo seja usado para IA
Ainda de acordo com o AdWeek, caso as regras do termo não sejam respeitadas, as empresas donas dos sistemas de IA podem sofrer com penalidades

New York Times proíbe que seu conteúdo seja usado para IA

O jornal norte-americano atualizou seus termos de serviço em 3 de agosto

O New York Times, um dos principais veículos de imprensa dos Estados Unidos, tomou algumas medidas para impedir que seu conteúdo tenha utilização para treinar modelos de inteligência artificial (IA).

Assim como primeiro noticiou o site AdWeek, o jornal norte-americano atualizou seus termos de serviço em 3 de agosto. Dessa forma, proibindo a extração do conteúdo para treinamento de aprendizado de máquina ou sistema de IA.

Além de textos, o conteúdo proibido pelo veículo são fotografias, imagens, ilustrações, designs, clipes de áudio, videoclipes, “aparência” e mais.

Aliás, o termo de serviço do New York Times também não permite que rastreadores de sites que indexam as páginas do site em resultados de buscas usem conteúdo de pesquisa para treinar os amplos modelos de linguagem (LLMs, na sigla em inglês) ou demais sistemas de IA.

Ainda de acordo com o AdWeek, caso as regras do termo não sejam respeitadas, as empresas donas dos sistemas de IA podem sofrer com penalidades.

Como lembrou o The Verge, em fevereiro deste ano, o New York Times assinou um contrato de três anos no valor de US$100 milhões com o Google. Para que a empresa utilize conteúdos do veículo em algumas de suas plataformas.

Nesse anúncio mencionado que o conteúdo do Times teria utilização para marketing, fins publicitários e de distribuição. Mas não menciona se o treinamento de IA está incluso no contrato.

IA pode identificar fake news? Estudo responde

  • Um estudo liderado por Kevin Matthe Caramancion, pesquisador da Universidade de Wisconsin-Stout, nos Estados Unidos, avaliou a capacidade dos LLMs de detectar se uma notícia é verdadeira ou falsa;
  • “Meu objetivo era testar rigorosamente a proficiência desses modelos em discernir fatos de fabricação. Usando uma simulação controlada e agências de checagem de fatos estabelecidas como referência”, disse Caramancion;
  • Na pesquisa, tiveram utilização duas versões do ChatGPT (a 3.0 e 4.0), o Bard, do Google, e o Bing, da Microsoft;
  • Essas IA’s utilizadas para classificar 100 notícias verificadas por agências de checagem em três categorias: verdadeiro, falso ou parcialmente verdadeiro/falso;

Fonte: olhardigital