Skip to content Skip to sidebar Skip to footer

Especialistas llaman a prevenir ataques maliciosos

No se trata sólo de tener una clave del correo electrónico segura, sino que resguardar todos los sitios y acciones que se realizan en internet, así como también la información que se disponibiliza a través la red. La ciberseguridad, aunque suena a pretexto para una buena película con una trama tecnológica, es un asunto más cotidiano de lo que parece y bien vale ser precavido para no ser vulnerable a ataques cibernéticos.

Esos son algunos de los consejos que entregó el doctor en ingeniería informática y académico de la Facultad de Ingeniería de la Universidad de Concepción, Pedro Pinacho Davidson.

El Dr. Pinacho destacó que “estamos en una era donde todos deberíamos estar bastante atentos a cuáles son las amenazas. Desde ese punto de vista, ya existe un ecosistema. Antiguamente estábamos bastante solos, pero después de la Ley Marco y ese tipo de cosas, ya tenemos un CSIRT (Equipo de Respuesta ante Incidentes de Seguridad Informática) y una Agencia Nacional de Ciberseguridad que generan boletines y nos dan información al respecto”.

“Por otro lado, también [es importante] estar atento a la información que nos entregan las empresas a las cuales estamos vinculados. Por ejemplo, si yo participo de la banca o de universidades, en general, los departamentos de tecnología envían información respecto a cuáles son las amenazas que están latentes actualmente, y esas recomendaciones hay que seguirlas”, agregó.

En la misma línea, la Directora del programa [genIA] UdeC, Dra. Alejandra Maldonado Trapp, mencionó que a nivel de usuario, las acciones más críticas para proteger la información personal frente al uso no consentido por sistemas de inteligencia artificial son limitar la exposición digital, controlar el consentimiento y fortalecer la autonomía humana.

“De acuerdo con las recomendaciones de la UNESCO sobre la Ética de la Inteligencia Artificial (2021), la protección y mejora de la autonomía humana deben ser principios fundamentales al interactuar con la IA, y las medidas más efectivas se centran en el control directo de los datos, el consentimiento informado y el desarrollo de una alfabetización digital crítica”.

“Es fundamental revisar la configuración de privacidad en redes sociales, evitar subir fotos o audios de alta calidad que puedan reutilizarse, eliminar metadatos antes de compartir archivos y leer con atención las políticas de privacidad para identificar el uso de datos en el entrenamiento de IA. Además, las personas deben ejercer su derecho a retener o retirar el consentimiento, asegurarse de conservar la propiedad sobre sus datos personales y no renunciar automáticamente a la privacidad al usar servicios de IA”, agregó.

Evitar información sensible

La Dra. Maldonado hizo hincapié en que es importante evitar introducir información sensible en sistemas de IA generativa, proteger imágenes y contenido en línea, respetar los derechos de autor y actuar éticamente evitando la creación de material falso o manipulado.

“En términos de prevención, el uso ético y responsable de la inteligencia artificial desde la etapa formativa se convierte en la primera barrera de defensa contra futuros ataques maliciosos, ya que fomenta una cultura digital basada en la conciencia, la transparencia y la responsabilidad”, dijo.

“La Unesco destaca la importancia de educar desde edades tempranas en valores éticos, pensamiento crítico y competencias digitales que permitan comprender los riesgos y alcances de la IA. Cuando las personas aprenden a proteger sus datos, reconocer sesgos algorítmicos y evaluar de manera crítica la información automatizada, se fortalecen las capacidades colectivas para anticipar amenazas y evitar manipulaciones tecnológicas”, añadió.

Este enfoque formativo, explicó, adquiere especial relevancia ante el uso de la IA en campañas políticas, donde los algoritmos pueden amplificar desinformación, crear deepfakes o segmentar mensajes manipulativos dirigidos a influir en el voto o en la opinión pública.

Empresa Periodística La Discusión © 2025. Derechos Reservados