ChatGPT, un negocio peligroso: más empresas lo ofrecen a los usuarios, pero lo prohíben a sus empleados
ChatGPT, el chatbot con inteligencia artificial (IA) que acapara la atención pública debido a sus encantos, también genera preocupaciones. La reacción del mundo corporativo es una muestra elocuente de esa ambivalencia: quieren tomar réditos de esta nueva gallina de los huevos de oro, pero son cada vez más las compañías que prohíben a sus empleados el uso de esta tecnología.
Las empresas le temen a ChatGPT: una lista en crecimiento
Samsung es un caso testigo. Tal como contamos anteriormente en TN Tecno, la surcoreana tiene planes ambiciosos con ChatGPT, con una posible integración del bot en sus celulares a través del buscador Microsoft Bing. Pero al otro lado del mostrador ha decidido vedar el uso de ese avance entre sus trabajadores.
Otro gigante tecnológico, Apple, siguió los pasos de su competidor. La lista se agranda con otras compañías como Amazon, Telefónica, BBVA y Radeia, que tomaron medidas enérgicas en esa misma dirección: en las oficinas y dispositivos corporativos, ChatGPT es mala palabra.
Además, algunas organizaciones como Naturgy y la española Enagás enviaron recomendaciones de uso a los integrantes de sus plantillas, para que el avance no se les juegue en contra.
ChatGPT prohibido: ¿por qué las empresas le temen al chatbot de OpenAI?
El argumento se repite en todos los casos: el sistema de IA genera riesgos de seguridad y es una brecha abierta para posibles filtraciones de datos confidenciales, dos variables que cualquier compañía procura eludir.
De hecho, cuando se supo que Samsung prohibió a sus empleados usar ChatGPT, se dijo que la medida respondió a la divulgación de información a través de ese software, incluyendo código de herramientas internas.
ChatGPT ganó fama pos sus encantos: redacta textos coherentes, escribe código de programación y mantiene conversaciones naturales, con un largo etcétera aquí. Eso sí: este avance no está exento de riesgos y polémicas. El mismísimo CEO de la organización reconoció los peligros asociados a estos avances. “Mi peor miedo es causar grandes daños al mundo”, dijo Sam Altman en una audiencia en el Congreso de Estados Unidos.
Uno de los problemas relacionados a ChatGPT es la gestión del contenido que ingresan los usuarios. Tal como hemos explicado, OpenAI almacena datos y los usa para entrenar a su “monstruito”, que crece a medida que absorbe información. Además, los moderadores tienen la potestad de revisar esas entradas.
La preocupación en las empresas es lógica. Simplemente imaginemos esta posibilidad: un usuario en cualquier rincón del mundo preguntando a ChatGPT algo sobre Samsung, Apple o Amazon, y que el sistema de IA arroje información confidencial de la empresa.
Mientras tanto, muchas de las firmas mencionadas (que prohíben al bot en sus oficinas) sí piensan formas de subirse al negocio, de cara a los usuarios. En cualquier caso, la clave de aquí en adelante será la transparencia. Tal como señalamos en ChatGPT desafía a la docencia al examinar las prácticas para distinguir si un contenido fue elaborado por una máquina o un ser humano, será relevante que OpenIA y otros desarrolladores de chatbots echen luz sobre la opacidad respecto a cómo usan los datos. Otro “secreto” es recordar lo siguiente: la información que ingresamos a esos sistemas es la base de su conocimiento; por eso, es importante revisar qué le decimos y también qué nos devuelve.
Fuente: TN