IA y tecnología: seguridad por diseño


El reciente anuncio de OpenAI sobre la incorporación de controles parentales en ChatGPT, tras el suicidio de un adolescente en Estados Unidos y la demanda judicial presentada por su familia, plantea más dudas que certezas. Estas medidas -alertas ante angustia, cuentas vinculadas y limitaciones de uso- llegan tarde y parecen más una reacción a la presión mediática y legal que un compromiso genuino con la seguridad de los menores.

Resulta alarmante que solo después de una tragedia se aceleren planes que debieron estar presentes desde el diseño mismo del sistema. Los adolescentes no pueden quedar expuestos a plataformas que, en casos críticos, han llegado incluso a facilitar métodos de autolesión.

La protección en tecnología, y más aún en inteligencia artificial, no debe basarse en respuestas improvisadas, sino en estrategias claras, obligatorias como estándar de facto, y planificadas desde su etapa de concepción, creación y operación.

powered by Lo que necesitamos no son controles parentales parciales, sino garantías de que estas tecnologías serán seguras por diseño. La innovación no puede estar por encima de ello.

Publicar un comentario

Artículo Anterior Artículo Siguiente