Sopesar los riesgos y las recompensas de ChatGPT, como modelo de lenguaje extenso (LLM) y ejemplo de IA generativa, comienza con una evaluación de riesgos del potencial de daño de esta poderosa herramienta. Considera lo siguiente.
Capacitación de ChatGPT
Hecho en Italia y Alemania Direcciones de ChatGPT: “OpenAI supuestamente procesó datos personales sin informar a los usuarios e individuos y puede carecer de la base legal para la extensa recopilación de datos utilizada para entrenar sus modelos de IA”. Según ChatGPT, se entrenó en una variedad de fuentes de Internet, donde OpenAI argumentaría que los datos de entrenamiento son de dominio público. Este argumento puede no funcionar.

por ejemplo, Clearview AI una vez ofrecido Servicios de reconocimiento facial para agencias canadienses de aplicación de la ley y entidades del sector privado. Sin embargo, el Comisionado de Privacidad de Canadá y varias oficinas de privacidad provinciales han descubierto que violaron las leyes de privacidad federales y provinciales al recopilar imágenes en línea de acceso público de personas (y niños) sin su conocimiento o consentimientocon datos utilizados de manera No tiene nada que ver con el propósito original.. En otras palabras, el hecho de que algunos datos sean públicos no significa que sean gratuitos para todos. Dado que no se otorgó ninguna licencia para un nuevo propósito de uso de datos personales confidenciales, esto se consideró una infracción.
También existen riesgos de seguridad por la corrupción intencional de los datos de entrenamiento que podrían afectar las respuestas de ChatGPT.
Respuesta: ¿Regulaciones más estrictas con consecuencias por incumplimiento? ¿Mayor transparencia de la IA? ¿Supervisar las operaciones de datos de entrenamiento? ¿Mayor colaboración equilibrada entre propietarios de tecnología y grupos de interés público? Como se detalla en un artículo de Al Jazeera sobre los riesgos sociales generativos de la IA: “Sam Altman, director ejecutivo de OpenAI, subsidiaria de ChatGPT, testificó ante los miembros de un subcomité del Senado… sobre la necesidad de regular la tecnología de IA cada vez más poderosa que se está construyendo dentro de su empresa y otras como Google y Microsoft”.
Reclamaciones de ChatGPT
Open AI (ChatGPT Generator) Una vez que los datos del chat se han almacenado durante 30 días, algunos de ellos se han utilizado para mejorar sus modelos. Según ChatGPT, OpenAI dejó de hacer esto a partir de marzo de 2023, “para priorizar la privacidad del usuario y la protección de datos”.

Además, los datos de chat capturados antes de marzo de 2023 estaban sujetos a una política de retención de 30 días. Nota: Las políticas de uso y retención de datos de OpenAI deben considerarse como parte de una evaluación de riesgos de Internet adecuada en lugar de depender de una respuesta de ChatGPT.
Otros riesgos de ciberseguridad son similares a dar datos confidenciales de la empresa a una entidad desconocida, como cuando un usuario envía datos confidenciales de la empresa a ChatGPT para su análisis. Esto es una infracción, y el riesgo de terceros exacerba el alcance de la infracción. Los riesgos incluyen pasar datos a un sistema de terceros sin la diligencia debida adecuada y no haber designado las autoridades de nivel del sistema debidamente monitoreadas.
¿Y qué pasa con las herramientas de terceros que usan OpenAI como plataforma? Esta abstracción plantea riesgos, como políticas inconsistentes entre la plataforma y la herramienta y diferencias en el almacenamiento de chat y los enfoques de respuesta. Esto significa hacer la diligencia debida no solo en OpenAI sino también en la herramienta de abstracción. También existe un riesgo de seguridad al modificar o redirigir un aviso una vez que se ha enviado a cualquier nivel, devolverlo o realizar acciones no deseadas.
Respuesta: Actualizar y comunicar las políticas de seguridad de datos de la empresa. Verifique que los controles de acceso sean adecuados. Promover/implementar procedimientos de debida diligencia de terceros. Además, al igual que la distinción entre nubes públicas y privadas, los chatbots públicos pueden evolucionar a chatbots privados para habilitar una versión más segura de las capacidades de ChatGPT en las empresas.
Respuestas de ChatGPT
ChatGPT puede ser utilizado por personas desagradables para realizar conversaciones telefónicas o por correo electrónico de tal calidad que crean confianza con un objetivo humano vulnerable para entregar las claves de sus cuentas bancarias o revelar los detalles de su identidad nacional. ChatGPT facilita la ingeniería social, uno de los mayores riesgos cibernéticos, al facilitar la determinación de si una conversación es legítima.
Hoy en día, los cursos de concientización sobre seguridad cibernética enseñan cómo revisar la ortografía, la gramática y las rarezas conversacionales como un medio para identificar correos electrónicos de phishing. Para llamadas telefónicas, esta capacitación puede cubrir la solicitud y verificación de las credenciales de la persona que llama. Sin embargo, para la persona promedio, si no aparecen las señales de alerta habituales, ¿cuántos podrían caer en la falsa creencia de que estas conversaciones son confiables?
También existe el riesgo de confiar demasiado en las respuestas de ChatGPT, especialmente cuando se implementa en una configuración de seguridad. Datos de entrenamiento rápido y amplificación de riesgos levantado antes. Por lo tanto, implementar respuestas sin verificación puede exponer a la organización a nuevos riesgos de seguridad.
Respuesta: Para los correos electrónicos, queda una bandera roja principal: el dominio de correo electrónico original. Verifique los números de teléfono y verifique quién llama. Además, la capacitación de concientización sobre seguridad cibernética corporativa debe incluir herramientas de IA conversacionales. Valide las respuestas de ChatGPT en escenarios críticos antes de actuar sobre ellos. El pensamiento crítico es más importante que nunca.
Conclusión
Este artículo exploró tres conjuntos de problemas de ciberseguridad derivados del uso de ChatGPT. La naturaleza emergente de ChatGPT significa que se puede esperar que cambie rápidamente y que continúe cambiando. Si no se mantiene al día con estos cambios, se generarán más riesgos y algunos controles superarán su utilidad. Como siempre, el control de riesgos para la efectividad del control es una revisión frecuente, especialmente en entornos que evolucionan rápidamente.
El ex CEO de Google, Eric Schmidt, advierte que los sistemas de inteligencia artificial existentes pronto podrán realizar vulnerabilidades de día cero y que Estados Unidos no está preparado para el mundo de la inteligencia artificial. Después de todo, se avecina un mundo completamente nuevo de problemas de seguridad cibernética (corporativos y de soberanía) a medida que usamos una nueva generación de herramientas de IA. Si bien hay mucho que no sabemos, es mejor ser proactivo sobre estas nuevas amenazas mientras la IA generativa aún está en pañales.
Guy Pearce es miembro del Grupo de Trabajo de Tendencias Emergentes de ISACA.
In conclusion, this film has captivated audiences with its mesmerizing storytelling, compelling performances, and stunning visuals. It has transported us to worlds both familiar and unknown, evoking a range of emotions that have left a lasting impact. The director’s artistic vision and the collaborative efforts of the cast and crew have brought this story to life in a truly extraordinary way. From the gripping plot twists to the heartfelt moments of connection, this film has reminded us of the power of cinema to inspire, entertain, and provoke thought.
Whether you’re a fan of the genre or simply a lover of great storytelling , this film is not to be missed. It’s a testament to the magic of filmmaking and serves as a reminder of the profound impact that movies can have on our lives. So grab your popcorn, sit back, and immerse yourself in this cinematic masterpiece.