Guadalajara: amenazas para la seguridad de la Inteligencia Artificial
La autonomía y el aprendizaje de la Inteligencia Artificial los hacen susceptibles de ser utilizados en suplantaciones de identidad
El doctor Francisco Javier Alvarado Rodríguez, Profesor-Investigador del Departamento de Mecatrónica de la Universidad Autónoma de Guadalajara (UAG) realizó una serie de reflexiones sobre el uso y desarrollo de la Inteligencia Artificial (IA).
Este análisis puede ser tomado en cuenta por los directivos de los departamentos de seguridad empresarial, para ser debatido y analizado ante el aumento e incremento de su participación en el sector, de hecho, el uso de la IA ha sido visto por el Banco Mundial en su más reicente informe, como uno de los puntos a desarrollar más importantes en cuanto a avances tecnológicos que se darán este año.
Este video te puede interesar
La IA representa un avance tecnológico significativo con un potencial transformador en nuestras vidas. Sin embargo, su rápida evolución conlleva desafíos éticos y legales, especialmente en el contexto de los delitos cometidos mediante su uso.
La autonomía y el aprendizaje de los sistemas de IA los hacen susceptibles de ser utilizados en suplantaciones de identidad, ciberataques y en la creación de contenido falso. Por ejemplo, los atacantes pueden emplear la IA para generar código malicioso que cifra los datos de las víctimas y luego exige un rescate por la clave de descifrado.
Preocupación por el uso inadecuado de IA
Además, el robo de datos personales o biométricos, como los usados en el reconocimiento facial, puede emplearse en fraudes financieros. Existe también la posibilidad de que la IA se utilice en actividades terroristas o para manipular vehículos autónomos, incrementando los riesgos de accidentes. Estos ejemplos ilustran solo algunas de las razones que justifican la creciente preocupación por el uso inadecuado de la IA.
Es fundamental la colaboración entre entidades gubernamentales, empresas y la sociedad civil para fomentar un uso ético de la IA. La regulación y supervisión deben adaptarse a los avances tecnológicos, enfocándose en prevenir el mal uso de la IA en delitos.
¿Cómo no ser víctima de la delincuencia que usa IA?
No obstante, para prevenir ser víctima de estas amenazas, se requiere un enfoque multidimensional que incluya concienciación y educación. Son esenciales las medidas de seguridad robustas en sistemas y plataformas digitales.
Se recomienda:
- Uso de contraseñas seguras y su cambio periódico.
- Precaución con enlaces y archivos adjuntos en correos electrónicos.
- Mantener actualizados los sistemas operativos y el software.
Asimismo, se están desarrollando herramientas como algoritmos de detección de deepfakes y soluciones basadas en blockchain para verificar la autenticidad de la información en línea. Herramientas actuales como PhishTank, Fakespot y TruthFinder se utilizan para verificar la autenticidad de contenidos y perfiles en línea; aunque no son perfectas, ofrecen una defensa inicial contra los delitos con IA.
Desafíos y Oportunidades
Es importante considerar que la relación entre la IA y los delitos no solo presenta desafíos significativos, sino que también ofrece oportunidades para desarrollar soluciones innovadoras a estas problemáticas. Sin embargo, un enfoque colaborativo que involucre a diferentes sectores es clave para establecer marcos regulatorios sólidos, fomentar la conciencia pública y desarrollar herramientas tecnológicas que mitiguen los riesgos asociados con el uso indebido de la inteligencia artificial.