A desinformação em plataformas digitais é um problema para a democracia e tende a crescer com uso da IA, alerta executiva

A desinformação em plataformas digitais é um problema para a democracia e tende a crescer com uso da IA, alerta executiva

Para Angela Mills Wade, diretora executiva do Conselho europeu de Editores, a melhor saída, inclusive para o Brasil, é usar uma lei de concorrência para delimitar a atuação das big techs e empresas de IA

O crescente uso de inteligência artificial (IA), sobretudo das ferramentas generativas, levará a uma piora exponencial no compartilhamento de notícias falsas e desinformação, avalia Angela Mills Wade, diretora executiva do Conselho Europeu de Editores. A organização reúne veículos de imprensa — em rádio, TV, online e outros —, incluindo títulos como The Guardian, El País e Financial Times. “É um problema para a sociedade e para a democracia. É massivo”, diz.

Para ela, porém, esse movimento leva políticos e governos a evoluírem com mais agilidade em regulação de grandes plataformas digitais, como Facebook e Instagram, da Meta, e o Google, da Alphabet. A melhor saída, aponta, inclusive para o Brasil, é usar uma lei de concorrência para delimitar a atuação das big techs e empresas de IA.

Como está hoje a regulação de “big techs” na União Europeia?

Como editores, o que podemos fazer é fornecer conteúdo de qualidade como alternativa (a notícias falsas). A questão da classificação, de como essas plataformas digitais dão prioridade ao conteúdo é um problema. Tudo, desde conteúdo ilegal e prejudicial até enganoso e desinformação, é uma questão de concorrência, e é tratado, até certo ponto, pela Lei de Mercados Digitais (DMA, na sigla em inglês).

Sob a Lei de Serviços Digitais (DSA), haverá um código obrigatório da prática sobre desinformação. Ainda é um código de conduta voluntário, mas até o próximo ano será integralmente parte da DSA.

A desinformação é um dos principais problemas?

É um problema enorme e vai piorar exponencialmente por causa da inteligência artificial. A capacidade do conteúdo gerado por IA ser desde completamente errado até altamente enganoso vai piorar, porque não é apenas texto. É a capacidade também de criar fotos e vídeos falsos, em toda a gama de deep fakes. Isso é um problema para a sociedade e para a democracia. É massivo.

O que podemos fazer como editores? Seguir fazendo jornalismo orientado profissionalmente e o máximo possível para fazer os leitores virem a nossos sites e não clicarem em notícias falsas.

O advento da IA pode acelerar a regulação das “big techs”?

A Comissão Europeia tomou uma posição há vários anos dizendo: “Chega. Precisamos de um quadro regulamentar para fornecer os ‘faça e não faça’ do mundo digital, impor obrigações e proibições às plataformas digitais e instalar algum tipo de código de monopólio, de regra que possa ser verificada, aplicada e, se necessário, que uma ação legal seja tomada por não conformidade.

Isso foi feito especialmente com o DMA. O DSA é mais difícil porque está cobrindo áreas já regidas por lei. Até março, o DMA tem de estar feito. Até o Natal, as plataformas digitais devem notificar os comissários sobre como cumprirão a regulamentação.

E se não for assim?

Temos a oportunidade de mover ações legais contra as grandes plataformas digitais. É muito mais difícil do que tudo o que vimos até aqui. A remuneração por conteúdo autoral é parte da Diretiva de Direitos Autorais, que não é uma regulamentação.

Não há nada obrigatório, exceto o princípio geral de direitos autorais: se você é o detentor do conteúdo, tem o direito de determinar os termos e condições em que esse conteúdo é usado.

Mas a revolução digital jogou tudo isso em um mundo caótico onde as grandes plataformas avançam. A IA é algo com que os governos se importam. Os políticos veem claramente qual pode ser o dano à sociedade, à democracia e até a eles mesmos, se forem alvo de deep fakes.

A atitude dos reguladores evoluiu. Nos últimos cinco anos, eles têm sido muito mais resilientes e corajosos em sua disposição de enfrentar essas empresas globais, porque acho que sentem que foi longe demais.

A Lei da Inteligência Artificial está sendo negociada na Europa. Espero que o acordo saia até o fim do ano. Se não, até março, ou vai escapar por causa das eleições europeias.

E como vai funcionar essa lei?

É um projeto para classificar o risco e impor obrigações de transparência, relatórios sobre os vários tipos de IA. O projeto foi redigido antes de sabermos mais sobre as capacidades da IA generativa e de outros tipos. Então, as negociações com os reguladores são atualizadas em tempo real conforme avançam.

Os espanhóis têm a presidência do Conselho Europeu e produziram documentos tentando ser mais específicos sobre certos tipos de IA e quais deveriam ser as obrigações, incluindo o cumprimento do direito autoral.

O Brasil ainda discute uma lei para regular as “big techs”. Qual o melhor caminho?

Eu não iria pelo caminho dos direitos autorais. Iria pelo da (regulação da) concorrência, porque isso está segurando essas empresas globais, responsabilizando-as e fazendo com que parem de se comportar como países e de fazerem o que querem. Para fazê-las entrar em conformidade com a lei e a ordem, o Estado de direito.

As big techs conseguiram evitar todos os tipos de leis seguindo em frente e esperando serem desafiadas. A única maneira é fazer isso de forma rigorosa é através da lei da concorrência. Pode-se precisar de uma legislação separada.

No Reino Unido, há uma para danos digitais e a Lei de Economia Digital, que é mais a lei de concorrência. O pagamento por conteúdo será feito por um código de conduta, como na Austrália.

A Austrália foi bem-sucedida.

Muito bem-sucedida, porque eles examinaram o que deu errado em âmbito europeu, como o direito autoral falhou em ser uma vara grande o suficiente para levar as plataformas digitais à mesa (de negociação). Usaram a negociação obrigatória (com produtores de conteúdo), ou teriam o preço da remuneração definido pelo regulador. E isso foi muito inteligente.

As big techs fizeram tudo o que podiam para não serem sujeitas a essa designação obrigatória, e a única forma de fazer isso era fechar acordos. Embora os acordos talvez não fossem perfeitos, estabeleceram o padrão que eles tinham que seguir. Esses acordos serão revisados, e os editores trarão outros aspectos, incluindo o uso de seu conteúdo para treinar IA.

No Canadá, a Meta bloqueou a conteúdo jornalístico em suas redes para escapar à regulação.

Antes da Diretiva de Direitos Autorais europeia, Espanha e Alemanha introduziram direitos conexos em suas legislações e que exigiam que o Google pagasse por conteúdo autoral veiculado. O Google fechou o Google Notícias na Espanha. Veja a arrogância de uma empresa que não cumpre a lei e priva os consumidores de um produto.

Em vez de trabalhar com editores para encontrar soluções, se afastou. No Canadá, a questão do Facebook é interessante. As pessoas reclamaram de não conseguir encontrar as informações. Mas elas estão lá, só não estão no Facebook. E isso é sobre educação.


Fonte: O GLOBO

Postar um comentário

Please Select Embedded Mode To Show The Comment System.*

Postagem Anterior Próxima Postagem