Share This Article
Señor Director:
Meta anunció que identificará y etiquetará las imágenes generadas por inteligencia artificial (IA) que sean publicadas en Facebook, Instagram y Threads. La noticia, en principio, es positiva e iría en la dirección correcta, especialmente si queremos combatir la información falsa, la manipulación y otros males e incentivar a otras compañías. Pero hay una condición que sugiere enormes desafíos pendientes: esto dependerá de poder detectar los indicadores, conformes a las normas de la industria, que revelan que ciertas imágenes son generadas por IA.
Los expertos advierten -y en parte también Meta reconoce- vacíos y problemas por resolver. Uno es que este esfuerzo sólo funcionaría con las empresas dispuestas a cooperar con Meta, como Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock. Es decir, mucho material generado por IA no podrá ser detectado, sin contar que la robustez de los métodos para lograrlo -por ejemplo, las marcas de agua- sería aún insuficientes y los actores maliciosos contarían con muchas formas de evadir los controles. También se reporta que no está disponible un método efectivo y extendido para audio y video, dejando fuera un océano de contenido sospechoso.
Hay más, pero, en suma, está ya claro que queda demasiado camino por recorrer y mucho del peso de la responsabilidad está en los usuarios, que no sólo deben emplear correctamente la tecnología, sino también contar con más conocimientos y criterio para lidiar con contenidos problemáticos.
Rafael Rincón-Urdaneta, Foro de Líderes de los Objetivos de Desarrollo Digital, Fundación País Digital.