Economía

Las grandes empresas españolas comienzan a limitar el uso de ChatGPT entre sus empleados

Captura de pantalla de la aplicación ChatGPT

Captura de pantalla de la aplicación ChatGPT / Stanislav Kogiku / Efe

Las grandes empresas españolas están dando tímidos pasos hacia la regulación del uso de la inteligencia artificial (IA) generativa entre sus empleados, ante el temor de posibles filtraciones tras la popularización de herramientas como ChatGPT.Desde que el uso de la inteligencia artificial irrumpió de forma generalizada entre la población gracias a ChatGPT, los posibles riesgos de esta tecnología -todavía en desarrollo- y la necesidad de regularla han centrado el debate público.Una discusión que también ha llegado a las grandes empresas españolas, aunque de forma desigual, ya que mientras que algunas han optado por prohibir o regular el uso de esta tecnología entre sus empleados, otras no cuentan todavía con directrices.Entre las primeras se encuentran compañías como Sabadell, Sacyr, Deloitte o Telefónica, mientras que otras como Enagás, Iberia o Mapfre están trabajando en ello o han realizado una serie de recomendaciones a su plantilla.En el extremo contrario, empresas como Acciona, Acerinox, Aena, Arcelormittal, Cellnex, Meliá, Fluidra, Renfe o Caixabank no cuentan por el momento con directrices al respecto.

Normativas restrictivas

Aunque específicamente no se nombre a ChatGPT dentro de sus normativas, muchas compañías españolas cuentan con prohibiciones o limitaciones a la hora de compartir datos confidenciales con terceros que se aplican a la hora de utilizar programas de IA.Es el caso de bancos como Sabadell, que no permite compartir datos confidenciales con terceros sin disponer de un contrato de prestación de servicios; o BBVA, que aplica a ChatGPT las normativas internas existentes para el uso de la tecnología.Junto a ellas, algunas de las grandes consultoras también se han puesto serias a la hora de regular este tipo de herramientas de IA generativa, con el foco puesto en la protección de datos.De forma interna, Deloitte ha alertado a sus trabajadores sobre los riesgos de compartir información confidencial de los clientes con estas herramientas, mientras que EY considera que la IA conlleva unos riesgos asociados que hay que vigilar y regular, ya que su uso plantea numerosos interrogantes éticos, sociales y legales relacionados con la privacidad de los datos y la propiedad intelectual.En el sector de las telecomunicaciones, Telefónica no permite el uso de servicios de internet, como es el caso de ChatGPT, para tratar de almacenar información de la empresa a menos que sea a través de cuentas controladas por la compañía, mientras que Indra no cuenta con una regla específica para la IA, pero aplica su política general de compartir información solo a través de herramientas corporativas.

También en energéticas y constructoras

Por su parte, Sacyr tiene restringido el acceso a la aplicación a través de cuentas corporativas y desaconseja la introducción en la herramienta de información relativa a la compañía.Dentro del sector energético, Redeia es la compañía más restrictiva de las consultadas, ya que tienen bloqueado el uso del ChatGPT en su versión pública por temas de riesgos vinculados a la protección de la información, más teniendo en cuenta que son gestores de infraestructuras críticas.Por su parte, Naturgy y Enagás han compartido con sus empleados una serie de recomendaciones de uso para el ChatGPT.En el caso de Repsol y Endesa, estas compañías no han regulado por el momento el uso de herramientas de IA generativa, pero sí están aplicando sus beneficios a sus líneas de negocio, mientras que Iberdrola apuesta por reforzar la formación y concienciación de sus empleados en estas áreas.

Una regulación global

Además de entre las grandes empresas, el debate de la IA también ha llegado al Gobierno, que ha insistido en la necesidad de regular esta tecnología a escala global.De hecho, el propio presidente del Gobierno, Pedro Sánchez, defendió el pasado lunes ante el cofundador de OpenAI, Sam Altman, la necesidad de constituir un órgano global de supervisión de la IA. Una propuesta que también ha realizado públicamente el presidente de Telefónica, José María Álvarez-Pallete.Por su parte, la vicepresidenta primera y ministra de Asuntos Económicos y Transformación Digital, Nadia Calviño, aseguró ayer que España está "a la vanguardia" dentro de la Unión Europea (UE) en el marco de regulación de la IA, y que el Ejecutivo quiere impulsar "un marco global que garantice un desarrollo de esta tecnología que sirva para el bien común".Unas declaraciones que realizó tras la reunión del Consejo de Ministros, en la que la vicepresidenta presentó un informe sobre el despliegue de la Estrategia Nacional de Inteligencia Artificial (ENIA), dotado con más de 600 millones de euros.

Comentar

0 Comentarios

    Más comentarios