El Concejo de Bogotá aprobó por unanimidad el Proyecto de Acuerdo 461 de 2025, una iniciativa que busca fijar lineamientos en el uso de IA para prevenir abuso y explotación sexual infantil y adolescente en Bogotá.
Tras su aprobación, el texto está pendiente de sanción o rechazo por parte del alcalde mayor; solo en ese momento dejaría de ser proyecto y se convertiría formalmente en un Acuerdo Distrital, es decir, en un acto administrativo de carácter normativo con efectos en Bogotá.
La apuesta del Concejo es clara: intentar que el Distrito deje de llegar tarde. La idea es pasar de un esquema reactivo a uno de detección temprana, apoyado en análisis de datos, interoperabilidad institucional y generación de alertas. Según la nota oficial, esa herramienta permitiría procesar información de sistemas y observatorios de Bogotá para identificar riesgos en localidades y barrios. Su implementación, agrega el Concejo, sería progresiva, bajo el liderazgo de la Alta Consejería Distrital de Tecnologías de la Informanción y la Comunicación (TIC) y “sin generar gastos adicionales”.
El antecedente: cuando la respuesta llegaba después del daño
El trasfondo es grave. Según el propio Concejo, en 2025 se registraron 2.496 exámenes médico-legales por presunto abuso sexual en niños, niñas y adolescentes. A eso se suman más de 10.800 casos de violencia sexual reportados por el sistema de alertas de la Secretaría de Educación entre 2025 y lo corrido de 2026. De ese total, 571 habrían ocurrido en entornos digitales. El grupo más afectado, según la corporación, corresponde a menores entre 8 y 13 años.
Pero el valor real de esta decisión no depende del entusiasmo tecnológico, sino de sus límites jurídicos y operativos. De acuerdo con la documentación técnica revisada por Hackernoticia, el esquema propuesto combinaría procesamiento de lenguaje natural, visión artificial, comparación de hashes contra bases de material ya identificado y analítica predictiva para detectar patrones de riesgo, tendencias territoriales y posibles señales de grooming o difusión de contenido ilegal en línea. En teoría, ese sistema desembocaría en una Ruta de Atención y Reporte con alertas para entidades distritales y, cuando corresponda, reporte a autoridades nacionales competentes.
Arquitecturas de prevención con inteligencia artificial
Aquí aparece la tensión central del proyecto: proteger a la niñez sin convertir la prevención en una arquitectura difusa de vigilancia. En Colombia, el tratamiento de datos personales debe respetar el derecho fundamental a la intimidad y al habeas data, reconocido en el artículo 15 de la Constitución, así como las reglas de la Ley 1581 de 2012. Además, marcos y recomendaciones de organismos como la OCDE y UNICEF exigen que los sistemas de Inteligencia Artificial respeten derechos humanos, privacidad, transparencia, explicabilidad y evaluación permanente de impactos y sesgos.
Por eso, la discusión de fondo no pasa por decidir si la inteligencia artificial “puede ayudar”. La pregunta real es otra: con qué habilitación legal, bajo qué controles, sobre qué fuentes de datos y con qué mecanismos de rendición de cuentas. Si el Distrito se limita a integrar información institucional ya existente y a articularse con canales legales de denuncia y cooperación, el proyecto podría fortalecer la prevención. Pero si su ejecución termina derivando en monitoreo opaco, expansión de bases sensibles o decisiones automatizadas difíciles de auditar, el remedio podría abrir nuevas vulneraciones de derechos. Bogotá acaba de aprobar una promesa tecnológica ambiciosa. Ahora le toca demostrar que puede proteger sin sobrevigilar.
Es importante aclarar que el Proyecto de Acuerdo no establece la instalación de software en dispositivos de personas, la implementación en dispositivos personales de los ciudadanos como celulares o computadores, ni convenio alguno con empresas que lideran el sector de Inteligencia Artificial para el acceso y análisis de la información.
El Proyecto establece una estructura transversal de ejes éticos, técnicos y tecnológicos específicos. Esto, con la intención que el uso de la IA se rija por un enfoque humanista y se refuerce la protección.
Entre la protección de la niñez y el riesgo de recolección de datos
La decisión del Concejo de Bogotá no aparece en el vacío. En los últimos meses, distintos gobiernos han endurecido sus marcos de protección de menores en el entorno digital. Reino Unido activó en 2025 el régimen infantil del Online Safety Act, que obliga a plataformas y buscadores a evaluar riesgos para menores y a adoptar medidas para reducir daños. La Unión Europea, por su parte, publicó directrices específicas de protección de menores bajo la Digital Services Act y presentó un prototipo de verificación de edad. Australia también avanzó en reglas para restringir el acceso de menores de 16 años a determinadas plataformas y el 5 de marzo se discutió la aprobación de 9 leyes en Washinton sobre la protección en línea de menores y adolescentes.
Visto así, la apuesta por una IA para prevenir abuso sexual infantil en Bogotá se suma a una tendencia global: usar tecnología, analítica de datos y obligaciones reforzadas de protección para anticipar riesgos contra niños y adolescentes en línea. Pero hay una diferencia importante. Mientras en Europa o Reino Unido buena parte de la carga regulatoria recae sobre plataformas y servicios digitales, la apuesta de Bogotá apunta a fortalecer la coordinación institucional del Distrito, integrar sistemas de información ya existentes y producir alertas tempranas para activar rutas de atención y reporte.
El problema es que esa promesa de prevención también arrastra riesgos conocidos. Entre ellos, la sobrerrecolección de datos, la opacidad en los criterios de análisis, los posibles sesgos algorítmicos, los errores en la generación de alertas y las tensiones con el derecho a la intimidad y la protección de datos personales. En ese punto, la discusión deja de ser solamente tecnológica. Se vuelve, sobre todo, una discusión constitucional y democrática: cómo proteger a la niñez sin levantar, al mismo tiempo, una infraestructura de vigilancia difícil de auditar y controlar.
Bogotá, en ese sentido, no está sola. Se suma a una ola regulatoria global que busca blindar a los menores en el mundo digital. Pero, como muestran los debates abiertos en Europa, Reino Unido y Australia, la pregunta ya no es solo cómo detectar más rápido el riesgo, sino cómo hacerlo sin debilitar la privacidad, el debido proceso y el control democrático.
Lee más análisis y perspectivas en la sección editorial de Hackernoticia.com y mantente al día con las historias que están definiendo el debate sobre tecnología, ciberseguridad, privacidad y derechos digitales.


