Talento Visible: GenAI, ¿herramienta del futuro o peligro para la sociedad?

Talento Visible: GenAI, ¿herramienta del futuro o peligro para la sociedad?

La inteligencia artificial generativa (GenAI) es una herramienta poderosa para revolucionar sectores industriales, pero también un arma en manos equivocadas...

Por: María Fernanda Mosquera
junio 26, 2024
Este es un espacio de expresión libre e independiente que refleja exclusivamente los puntos de vista de los autores y no compromete el pensamiento ni la opinión de Las2orillas.
Talento Visible: GenAI, ¿herramienta del futuro o peligro para la sociedad?

La inteligencia artificial generativa (GenAI) ha surgido como una herramienta poderosa con el potencial de revolucionar numerosos sectores industriales. GenAI puede crear contenido nuevo y original, desde textos de alta calidad, poemas, guiones, correos electrónicos y traducciones precisas, hasta gráficos, logotipos, piezas musicales, animaciones y videos.

Esta tecnología también facilita el desarrollo de asistentes virtuales y la realización de marketing personalizado, además de impulsar nuevas investigaciones científicas.

Hace una década, pocos habríamos imaginado la existencia de una herramienta tan poderosa. Sin embargo, hoy en día, muchas personas u organizaciones están descubriendo cómo aprovechar al máximo estas capacidades. No obstante, como cualquier tecnología avanzada, GenAI conlleva riesgos inherentes que deben ser considerados y mitigados cuidadosamente.  

GenAI tiene la capacidad de generar contenido falso o manipulado de manera convincente. Esto puede ser explotado para crear noticias falsas, suplantar identidades en redes sociales, hacer llamadas con clonación de voz o generar correos electrónicos de phishing altamente personalizados.

Tal vez le interese: Talento Visible: las raíces de un liderazgo de vanguardia

GenAI ha permitido a los ciberdelincuentes crear fraudes más eficaces. Por ejemplo, se han reportado casos de "secuestros virtuales" donde los estafadores falsifican la voz para simular que un familiar de la persona está en peligro, aumentando la credibilidad.  

Un caso muy conocido es el de Ruth Card y Greg Grace, una pareja de ancianos de Estados Unidos, a la que a través de la clonación de la voz de su nieto, los estafadores lograron robarles 3.000 dólares canadienses.  

Otra táctica muy común es que los estafadores para dar más realismo clonen cuentas de redes sociales como Youtube, Facebook, Instagram, WhatsApp, etc.

Para engañar a los seguidores de las cuentas legítimas, una vez que siguen a la cuenta fraudulenta, hablarán por privado a los seguidores con diferentes engaños, consiguiendo robarles dinero o datos personales. Incluso en algunos casos se hacen pasar por famosos y enamoran a sus víctimas para sacarles dinero, este es el caso de la mujer que creyendo estar hablando con Brad Pitt, transfirió 180.000 USD. 

De acuerdo con la Consultora Accenture en los últimos 18 meses se ha incrementado los ataques de phishing en un 1.265%, este comportamiento muestra que las ciberamenazas podría alcanzar un nivel que lleve en el futuro a que se deba evaluar “cada correo electrónico, anuncio o llamada telefónica para evitar que hayan sido generadas por un estafador ya que ahora es más fácil la manipulación de las emociones de las personas para lograr éxito de las estafas. 

GenAI también puede ser utilizada para lanzar ataques cibernéticos sofisticados, generando código y comprendiendo el lenguaje natural, lo que la convierte en una herramienta peligrosa en manos equivocadas. Los delincuentes pueden violar sistemas de información y ejecutar ataques de Ransomware, de acuerdo con Accenture se ha incrementado en un 76% los Ataques de Ransomware generados utilizando ChatGPT.

Tal vez le interese: El poder en la periferia: la revolución de las mujeres afro en la gerencia social

Adicionalmente, la formación de GenAI con grandes cantidades de datos plantea preocupaciones sobre la privacidad. Si estos datos no se gestionan de manera responsable, podrían ser utilizados para identificar y rastrear a individuos, y en caso de una violación de datos, la información personal podría ser explotada para el robo de identidad.

Adicional a esto, se ha observado que empleados han expuesto información confidencial al utilizar herramientas de GenAI sin una comprensión completa de los riesgos. Esta práctica ha llevado a filtraciones de datos, ya que la información ingresada en estas plataformas puede ser reutilizada o accesible por terceros no autorizados

El uso descuidado de GenAI por parte de empleados ha llevado a filtraciones de datos confidenciales, porque la información ingresada en estas plataformas puede ser reutilizada o accesible por terceros no autorizados.

¿Crees que es posible que GenAI mienta? 

Es posible que hayas escuchado el término alucinaciones, esto es porque GenAI no está exenta de errores, pudiendo generar resultados erróneos, este es el caso unos abogados que interponiendo un pleito, usaron en su escrito judicial al menos 6 casos de antecedentes, los cuales fueron generados por ChatGPT de forma errónea, el juez decisión sancionar a los abogados con 5000 USD.

Para mitigar los riesgos de Ciberseguridad asociados a GenAI, se deben implementar varias medidas:

  • Definición de políticas: establecer directrices, para que los desarrollos de GenAI cuenten con transparencia, Seguridad, controles de privacidad, controles de ciberseguridad y cumplimiento regulatorio.
  • Manejo Seguro de Datos: Los datos utilizados para entrenar a GenAI deben ser manejados de manera segura y responsable, definiendo medidas que permitan que los datos no sean accedidos de forma insegura.
  • Transparencia y Auditoría: Asegurar que el funcionamiento de GenAI sea transparente y auditable para identificar y corregir problemas de seguridad.
  • Conciencia de los usuarios: Es necesario que como usuarios seamos conscientes de los riesgos de Ciberseguridad que tienen estas tecnologías emergentes e identifiquemos la forma de utilizar estas herramientas de forma segura, como usuarios debemos estar alerta y tomar precauciones para evitar ser víctimas de estafas basadas en GenAI.

Bibliografía

https://www.infobae.com/america/tecno/2022/12/09/los-4-casos-famosos-de-suplantacion-de-identidad-o-deepfake-tom-cruise-y-zuckerberg-figuraron/

https://www.canon.es/view/four_genai_risks_every_business_should_know/

https://english.elpais.com/spain/2023-06-30/fake-brad-pitt-scams-180000-from-middle-aged-woman-in-spain.html

https://forbes.co/2023/06/09/actualidad/abogado-uso-chatgpt-para-demandar-a-avianca-pero-todo-salio-mal

https://www.rcnradio.com/tecnologia/nueva-modalidad-de-estafa-clonan-su-voz-para-pedirle-plata-aus-familiares

Sigue a Las2orillas.co en Google News
-.
0
Nota Ciudadana
Talento Visible: Desde las trincheras. Reflexiones de una joven líder

Talento Visible: Desde las trincheras. Reflexiones de una joven líder

Nota Ciudadana
Manos Visibles invita al 10° Taller Regional Vanguardia Étnica Cultural ‘Imaginando nuevos futuros’

Manos Visibles invita al 10° Taller Regional Vanguardia Étnica Cultural ‘Imaginando nuevos futuros’

Los comentarios son realizados por los usuarios del portal y no representan la opinión ni el pensamiento de Las2Orillas.CO
Lo invitamos a leer y a debatir de forma respetuosa.
-
comments powered by Disqus
--Publicidad--