Facebook e Instagram vão adicionar rótulos “Made with AI” em publicações. Políticas sobre tecnologia de IA e conteúdo serão aplicadas para combater mídia manipulada.
Os deepfakes são vídeos manipulados usando inteligência artificial para inserir o rosto de uma pessoa em cenas onde ela nunca esteve. Essa tecnologia tem sido utilizada de forma maliciosa, disseminando informações falsas e enganando o público. É importante estar atento para não cair em armadilhas criadas por essas deepfakes.
Além dos deepfakes, também existem as deepfalsificações e as deep fabricações, que são técnicas similares de manipulação digital de conteúdo. É essencial desenvolver mecanismos de detecção e conscientização sobre essas práticas para combater a propagação de informações falsas. Não podemos permitir que as deepfakes e suas variações comprometam a nossa capacidade de discernir a verdade na era da informação digital.
Meta anuncia mudanças em políticas sobre deepfakes e mídias alteradas
A Meta anunciou mudanças em suas políticas sobre mídias criadas e alteradas digitalmente, que testarão sua capacidade de policiar conteúdo enganoso gerado por novas tecnologias de inteligência artificial em um ano com eleições importantes pelo mundo, incluindo nos Estados Unidos, em novembro. A controladora do Facebook e do Instagram começará a aplicar rótulos ‘Made with AI’ (‘Feito com IA’, na tradução) em maio em vídeos, imagens e áudio gerados por IA publicados em suas plataformas, expandindo uma política que anteriormente abordava apenas uma pequena fatia de vídeos adulterados, disse a vice-presidente de política de conteúdo, Monika Bickert. A nova abordagem mudará o tratamento dado pela empresa ao conteúdo manipulado.
Impacto da IA: deepfalsificações e deep fabricações
A executiva disse que a Meta também aplicará rótulos separados e mais proeminentes à mídia alterada digitalmente que representa um ‘risco particularmente alto de enganar o público em uma questão importante’, independentemente do conteúdo ter sido criado usando IA ou outras ferramentas. Ela deixará de se concentrar na remoção de um conjunto limitado de publicações e passará a se concentrar na manutenção do conteúdo, fornecendo aos espectadores informações sobre como ele foi criado. A Meta começará a aplicar os rótulos mais proeminentes de ‘alto risco’ imediatamente, disse o porta-voz.
Política de conteúdo e deepfakes nas redes sociais
Em fevereiro, o conselho de supervisão da Meta chamou as regras existentes da empresa sobre mídia manipulada de ‘incoerentes’ depois de analisar um vídeo do presidente Joe Biden, publicado no Facebook no ano passado, que alterava imagens reais para sugerir erroneamente que ele havia se comportado de forma inadequada. A empresa permitiu que o conteúdo seguisse no ar, pois a política de ‘mídia manipulada’ da Meta proibia vídeos alterados de forma enganosa somente se tivessem sido produzidos por inteligência artificial ou se fizessem com que as pessoas parecessem dizer palavras que nunca disseram de fato.
Ferramentas de IA e política de mídia manipulada
Dissemina mentiras, mas potencializa criatividade: como o brasileiro enxerga a IA? TSE: Moraes comandará centro de combate à desinformação e discursos de ódio IA nas eleições: restrição do TSE não será capaz de impedir ‘deepfake’, alertam especialistas A empresa permitiu que o conteúdo seguisse no ar, pois a política de ‘mídia manipulada’ da Meta proibia vídeos alterados de forma enganosa somente se tivessem sido produzidos por inteligência artificial ou se fizessem com que as pessoas parecessem dizer palavras que nunca disseram de fato.
Desafios das políticas sobre deepfakes e tecnologia de inteligência artificial
A empresa permitiu que o conteúdo seguisse no ar, pois a política de ‘mídia manipulada’ da Meta proibia vídeos alterados de forma enganosa somente se tivessem sido produzidos por inteligência artificial ou se fizessem com que as pessoas parecessem dizer palavras que nunca disseram de fato. Os outros serviços, incluindo o WhatsApp e os visores de realidade virtual Quest, são cobertos por regras diferentes.
Fonte: @ Info Money
Comentários sobre este artigo