Dólar

Dólar Oficial:$1370 / $1420
Dólar Blue:$1380 / $1400
Dólar Bolsa:$1427 / $1434.3
Dólar Contado con liquidación:$1482 / $1483.1
Dólar Mayorista:$1389 / $1398
Mundo

Abuso digital: Unicef alerta por la IA y exige penas contra una nueva forma de explotación infantil

El organismo de la ONU reclamó tipificar como delito grave la creación de contenidos de abuso sexual infantil generados con inteligencia artificial y advirtió que la tecnología ya superó a las leyes vigentes.

Unicef solicitó esta semana a los gobiernos de todo el mundo que penalicen de forma explícita el uso de tecnologías de inteligencia artificial para la creación de imágenes, videos y otros contenidos de abuso sexual infantil, incluso cuando se trate de material completamente sintético. El pedido apunta a cerrar vacíos legales que hoy permiten la circulación de este tipo de contenidos en entornos digitales.

El llamado fue realizado por el organismo de Naciones Unidas en un contexto de acelerado desarrollo de modelos de IA generativa. Según Unicef, la capacidad actual de estas herramientas para producir imágenes hiperrealistas ya superó los marcos legales vigentes en muchos países, lo que dificulta la persecución penal y favorece espacios de impunidad.

Desde la organización advirtieron que la ausencia de tipificaciones claras facilita la difusión de material ilegal y contribuye a la revictimización de niños y niñas en plataformas digitales. En ese escenario, remarcaron que la generación de este tipo de contenidos constituye una forma de abuso en sí misma, más allá de que no exista contacto físico directo.

Según Unicef, estos materiales alimentan mercados de explotación sexual infantil y normalizan la violencia contra la infancia, generando daños que trascienden el plano virtual. “El abuso mediante contenidos generados por IA es real y produce consecuencias reales”, señaló el organismo en su comunicado.

Deepfakes, manipulación de imágenes y daño real

Uno de los principales focos de preocupación señalados por Unicef es el uso de inteligencia artificial para manipular imágenes reales de menores obtenidas en redes sociales. A través de técnicas como el desnudamiento digital o la creación de deepfakes, se producen representaciones falsas sexualizadas que luego circulan en foros clandestinos y plataformas digitales.

El organismo fue contundente al remarcar que el daño provocado por este tipo de prácticas no es simbólico ni virtual. La existencia de réplicas digitales de niños y niñas en situaciones de explotación genera consecuencias psicológicas profundas para las víctimas y sus familias, incluso cuando las imágenes no correspondan a hechos reales.

En ese sentido, Unicef aportó un dato alarmante: durante el último año, al menos 1,2 millones de niños y niñas de 11 países reportaron que sus imágenes habían sido manipuladas para crear contenidos sexualmente explícitos generados mediante inteligencia artificial. Para la agencia, esta cifra evidencia que el fenómeno ya alcanzó una escala global.

“El impacto del abuso mediante deepfakes es concreto y no puede quedar supeditado a los tiempos de actualización de la legislación”, advirtió el organismo, que reclamó respuestas urgentes y coordinadas.

El rol de las empresas tecnológicas y la detección de contenidos

El pedido de Unicef no se limita únicamente a los Estados. La organización también reclamó un mayor compromiso por parte de las empresas tecnológicas, a las que instó a adoptar enfoques de seguridad desde el diseño de sus productos y a reforzar los sistemas de moderación de contenidos.

Entre las medidas sugeridas se incluyen la inversión en tecnologías de detección temprana, la implementación de marcas de agua digitales inviolables y el desarrollo de sistemas que bloqueen cualquier intento de generar material que involucre a menores en contextos inapropiados.

Sin embargo, Unicef advirtió que los mecanismos tradicionales de moderación enfrentan serias limitaciones frente a la IA generativa. La posibilidad de crear variaciones constantes de una misma imagen permite evadir filtros automáticos, mientras que la velocidad de producción de contenido sintético dificulta su identificación y remoción.

A esto se suma la complejidad del carácter transnacional de estos delitos. Los creadores del contenido, las plataformas que lo alojan y las víctimas pueden encontrarse en distintos países, lo que amplifica los vacíos jurisdiccionales si no existen normas específicas y armonizadas a nivel internacional.

Primeros movimientos legales y un desafío global

En este contexto, Gran Bretaña anunció su intención de ilegalizar el uso de herramientas de inteligencia artificial para crear imágenes de abuso sexual infantil, una iniciativa que podría convertirla en el primer país en avanzar de manera concreta en ese sentido.

Para Unicef, este tipo de decisiones marcan un camino posible frente a una problemática que ya no puede ser considerada marginal. El organismo señaló que el debate también alcanzó a chatbots y sistemas de generación de imágenes que fueron cuestionados por producir contenidos sexualizados, incluidos casos que involucran a menores.

Mientras la tecnología continúa avanzando a un ritmo acelerado, Unicef insistió en que la protección de la infancia debe ocupar un lugar prioritario en las agendas legislativas. La advertencia es clara: sin marcos legales sólidos y cooperación internacional, la inteligencia artificial puede convertirse en una nueva herramienta al servicio de la explotación infantil.

Comentarios