Apple se sumó a la lista de compañías que han restringido a sus empleados el uso de Inteligencia Artificial (IA) como ChatGPT, en los dispositivos de la empresa con el fin de proteger información confidencial de la empresa y evitar sus filtraciones.
Según el Wall Street Journal (WSJ), Apple prohibió a sus empleados el uso de ChatGPT y otros servicios impulsados por IA como Copilot de Github, que ayuda a los desarrolladores a escribir código.
Apple tomó esta decisión para proteger los datos sensibles de la compañía de uno de sus mayores rivales, Microsoft, que resulta ser el desarrollador de ChatGPT. Método que también han aplicado otras compañías bigtech.
Además, el WSJ señala que Apple también está en el desarrollo de su propio modelo de Inteligencia Artificial, por lo que debe evitar sumar más números positivos a la competencia.
LEA TAMBIÉN: Microsoft supera las expectativas en el primer trimestre gracias a la Inteligencia Artificial
Compañías restringen el uso de IA
Amazon fue uno de los primeros en tomar esta decisión, desde el mes de marzo sus empleados tienen prohibido compartir los códigos o información sensible y confidencial de la empresa con el chatbot de OpenAI.
En el caso del grande del E-Commerce, la compañía descubrió que varios ejemplos de respuestas generadas por ChatGPT se asociaban con datos internos de la empresa.
En febrero, JPMorgan Chase, restringió igualmente el uso interno del chatbot para evitar posibles inconvenientes normativos sobre el intercambio de información entre una plataforma y otra. Otros bancos como Bank of America, Citigroup, Deutsche Bank, Wells Fargo y Goldman Sachs, han seguido su ejemplo desde entonces.
A inicios del mes en curso, Samsung también aplicó la restricción de ChatGPT y otras herramientas de IA entre sus empleados, luego de descubrir una filtración accidental de un código que el ingeniero compartía con el popular chatbot.
¿Por qué la preocupación de las empresas?
La mayoría de las empresas que prohíben el uso de herramientas de IA de terceros están preocupadas por la forma en que servicios como ChatGPT y Bard de Google almacenan en los servidores los datos que los usuarios comparten con ellos.
Además, tanto los chatbots, como los servicios de IA se basan en las aportaciones de los usuarios para entrenar sus modelos y pueden brindar accidentalmente a otros usuarios datos que son propiedad de la empresa sin ser conscientes de ello.
Aunque ChatGPT ofrece a los usuarios una forma de desactivar el guardado de los historiales de chat, no está activada por defecto. Tampoco está claro si borrar un chat tiene algún impacto si un servicio ya ha utilizado la conversación para entrenar sus modelos.
En marzo, OpenAI tuvo que cerrar brevemente ChatGPT para resolver un error que permitía a algunos usuarios ver partes del historial de chat de otro usuario.