¿Por qué varias empresas están prohibiendo el uso de ChatGPT?
Rey Durán
ChatGPT, la revolucionaria herramienta basada en inteligencia artificial (IA), ha demostrado ser de gran utilidad para resolver distintas tareas, desde escribir un riguroso ensayo universitario hasta probar o depurar código fuente. Sin embargo, no está exenta de riesgos y varias empresas han prohibido su uso en el trabajo.
Reconociendo la importancia de implementar la IA en sus funciones, distintas compañías han desarrollado sus propias plataformas alternativas que consideran más seguras que ChatGPT, de libre acceso.
El caso más reciente es el del Commonwealth Bank of Australia, que este mes restringió a sus empleados el uso de ChatGPT y en su lugar ordenó a su personal técnico utilizar una herramienta similar llamada CommBank Gen.ai Studio, desarrollada en colaboración con H2O.ai, una empresa tecnológica de Silicon Valley.
En mayo, Apple también prohibió el uso de ChatGPT a algunos empleados para evitar la exposición de información confidencial. El gigante tecnológico estaría desarrollando su propia plataforma de IA.
En enero, Amazon prohibió ChatGPT e instó a sus desarrolladores a utilizar su propia IA, llamada CodeWhisperer, en caso de necesitar consejos o atajos de codificación.
"No comprendemos los riesgos para la seguridad"
El problema está en que OpenAI, la empresa creadora de ChatGPT, puede utilizar todo lo que se escriba en el chatbot para mejorar el sistema. El temor es que la información confidencial o sensible de una empresa que se facilite a ChatGPT pueda compartirse involuntariamente con otros usuarios. Además, OpenAI sigue resolviendo problemas de seguridad, y en marzo cerró temporalmente ChatGPT para corregir un error que permitía a los usuarios ver los títulos de los historiales de chat de otros usuarios.
En este contexto, Samsung también tomó medidas, después de que un ingeniero copiara y pegara código fuente sensible en ChatGPT. A la empresa surcoreana le preocupa que todo lo que se suba a plataformas de IA como ChatGPT quede almacenado en los servidores, sin posibilidad de acceder a la información o eliminarla.
Además del Commonwealth Bank of Australia, otros bancos, como Bank of America, Citigroup, Deutsche Bank, Goldman Sachs, Wells Fargo & Co y JP Morgan, prohibieron rotundamente el chatbot de OpenAI, que sus empleados habían estado usando para optimizar sus tareas cotidianas y ahorrar tiempo.
En mayo, el personal de cinco hospitales de Australia Occidental recibió la orden de dejar de utilizar ChatGPT después de que se reportara el uso de la plataforma para escribir notas médicas privadas.
"En estos momentos no podemos garantizar la confidencialidad de los pacientes cuando se utiliza tecnología bot de IA, como ChatGPT, ni comprendemos plenamente los riesgos para la seguridad", comentó Paul Forden, director del Servicio de Salud Metropolitano Sur de Perth. "Por esta razón, el uso de la tecnología de IA, incluido ChatGPT, para actividades relacionadas con el trabajo que incluyan cualquier información del paciente o potencialmente sensible del servicio de salud debe cesar inmediatamente", afirmó.
-RT