Los riesgos del ChatGPT en delitos financieros

0
Foto: Pexels

Desde que OpenAI anunció en marzo el lanzamiento de la tecnología GPT-4, la atención de científicos, empresarios y líderes mundiales se ha volcado masivamente hacia las posibilidades tanto positivas como negativas de la inteligencia artificial. Con información de Refinitiv.

 Aunque solo los usuarios de ChatGPT Plus tendrán acceso limitado a GPT-4-e, la nueva herramienta parece haber llegado para redefinir el futuro de la inteligencia artificial y la comunicación, creando interacciones más naturales y realistas entre humanos y máquinas.

Sin embargo, cientos de personalidades del sector de la tecnología han firmado una carta pidiendo una pausa de al menos seis meses en el desarrollo de la inteligencia artificial debido a la preocupación por los riesgos que pueden suponer para la privacidad, los derechos humanos e incluso la seguridad de las personas, y a la falta de regulación en este sector.

 Por otra parte, Europol ha lanzado una alerta sobre la posibilidad de que ChatGPT se utilice indebidamente en delitos relacionados con el phishing, la desinformación y la ciberdelincuencia, lo que agrava aún más el clima de preocupación en torno a la nueva herramienta.

La agencia europea destacó además el uso nocivo de ChatGPT en tres posibles áreas: phishing, desinformación y propaganda, y producción de malware. Ante este panorama, es esencial que las empresas del sector financiero, como las fintech, redoblen la atención a sus programas de riesgo y compliance para protegerse de las actividades ilícitas generalizadas y garantizar la conformidad normativa.

Dejar una respuesta

Por favor, introduce tu comentario
Por favor, introduzca su nombre aquí