No hay nadie al volante
tecnología
Las leyes y regulaciones actuales no son suficientes para salvaguardar la privacidad de los datos relacionados con la salud de la población
Los datos de las historias clínicas están blindados pero hay mucha información sobre la salud de una persona dentro de su teléfono móvil. El caso de Cambridge Analytica, la empresa propiedad de Facebook cuestionada por recopilar datos de usuarios y no usuarios sin su consentimiento, llevó el paradigma de la privacidad a un nuevo escenario en el que nada, aparentemente, está salvo. El motivo manifiesto es la gestión de la publicidad. Aunque el gigante de la gran red social ha sido el protagonista de este suceso son muchas las compañías que restan servicios a través de aplicaciones y programas en dispositivos varios capaces de recoger información personal relacionada con la salud.
Más allá de estas aplicaciones y de los proveedores de servicios sanitarios, hay multitud de aplicaciones capaces de saber cuánto caminas al día, si fumas o no, qué compras, qué comes, si has ido a un hospital, estás planeando un embarazo o tienes una discapacidad.
Esta gestión y análisis de ingentes cantidades de datos, lo que se conoce como 'big data', trae parejo otro campo emergente y que aún suena a ciencia ficción: la inteligencia artificial (IA). Los avances en este campo han creado nuevas amenazas a la privacidad de las personas y sus datos de salud, según un nuevo estudio de la Universidad de California en Berkeley. La investigación se publicó el pasado 21 de diciembre en la revista JAMA Network Open.
Dirigido por el ingeniero de la Universidad de California en Berkeley, Anil Aswani, el estudio sugiere que las leyes y regulaciones actuales no son suficientes para mantener la privacidad del estado de salud de un individuo frente al desarrollo de la inteligencia artificial. Sus hallazgos muestran que al usar inteligencia artificial es posible identificar personas y su estado de salud al aprender los patrones existentes en podómetros, aplicaciones de running o simples rastreadores de actividad instalados en relojes inteligentes y teléfonos móviles, y correlacionarlos con datos demográficos.
La extracción de datos de dos años de duración que cubren a más de 15.000 estadounidenses llevó a la conclusión de que los estándares de privacidad asociados con la ley HIPAA (Ley de responsabilidad y responsabilidad de los seguros de salud) de 1996 deben revisarse y actualizarse. "Queríamos usar la Encuesta Nacional de Salud y Nutrición para analizar cuestiones privadas porque estos datos son representativos de la población diversa en los Estados Unidos", explicó el experto. "Los resultados apuntan a un gran problema. Si eliminas toda la información de identificación, no te protege tanto como crees. Alguien más puede regresar y volver a armarlo si tienen el tipo de información correcto". "En principio, podría imaginar a Facebook reuniendo datos de pasos recorridos por una persona utilizando la aplicación en su teléfono, luego comprando datos de atención médica de una compañía y comparándolos", agregó. Su tesis es que ahora tendrían datos de atención médica relacionada con nombres y podrían comenzar a vender publicidad basada en eso, como teóricamente ya hacen, o podrían vender la información a otros.
De acuerdo con Aswani, el problema no está en los dispositivos, sino en cómo la información que capturan los dispositivos puede ser utilizada y potencialmente vendida en el mercado abierto. "No estoy diciendo que debamos abandonar estos dispositivos, pero debemos ser muy cuidadosos sobre cómo estamos utilizando estos datos. Necesitamos proteger la información". Aunque el estudio analizó específicamente los datos de pasos, los resultados sugieren una amenaza más amplia para la privacidad de los datos de salud. "Hay compañías que compran datos de salud. Se supone que son datos anónimos, pero todo su negocio modelo es encontrar una manera de adjuntar nombres a estos datos y venderlos".
Este estudio dice que los avances en IA hacen que sea más fácil para las compañías obtener acceso a los datos de salud, y aumentará la tentación de que las empresas los utilicen de manera ilegal o no ética. Los empleadores, los prestamistas hipotecarios, las compañías de tarjetas de crédito y otros podrían potencialmente usar la IA para discriminar, por ejemplo, por estado de embarazo o discapacidad. "Hay un gran impulso para incluso debilitar las regulaciones en este momento. El riesgo es que si las personas no son conscientes de lo que está sucediendo, se debilitará. Y el hecho es que los riesgos de que perdamos el control de nuestra privacidad cuando se trata de atención médica en realidad aumentan y no disminuyen".
También te puede interesar
Lo último
Contenido ofrecido por COITAND
Éxito rotundo en la jornada “El árbol en la ciudad y sus beneficios ecosistémicos. ¿Hay que podar?”
Óscar Velasco | Chef
"La presión no está en las estrellas, se sienta a la mesa"
Tribuna Económica
Carmen Pérez
Escapar del estancamiento