El informe de la Fundación Neuroderechos ya lo advierte: el riesgo de utilizar neurotecnologías para nuestra privacidad hoy es alto. Esta organización internacional, presidida por el neurobiólogo español de la Columbia University de Nueva York, Rafael Yuste, busca proteger al ciudadano de violaciones de sus derechos de privacidad, de libertad de pensamiento e intimidad.
El investigador prospectivista Rafael Martínez-Cortiña, junto a Adolfo Castilla, ha dado un paso más allá publicando Neuroderechos en la era de las neurotecnologías: los nuevos derechos humanos del siglo XXI, que presentó el pasado 26 de septiembre en Madrid. Una guía para proteger nuestra soberanía mental en un mundo donde la inteligencia artificial y los interfaces cerebro-máquina empiezan a rozar nuestro territorio psicológico, pudiendo influir en nuestros pensamientos, creencias, sentimientos y decisiones, sin nuestro consentimiento.
«El mayor riesgo al que nos enfrentamos es no actuar. Vamos hacia un futuro donde tenemos el riesgo de perder nuestra privacidad mental con estos dispositivos que son capaces de rastrear nuestras emociones y nuestras intenciones», asegura Martínez-Cortiña.
Y añade: «Otro peligro de no actuar es que puede erosionar nuestro libre albedrío, que parece muy distópico cuando lo cuentas, pero claro, si estos algoritmos influyen, sin nuestro consentimiento, en nuestras decisiones y luego, además se añade un riesgo de brecha cognitiva, porque habrá personas que acceden a mejoras, es decir, humanos mejorados, frente a personas que no pueden permitírselo».
Un nuevo manual de instrucciones para la humanidad
Marcapasos cerebrales para tratar el Parkinson, implantes cocleares para la audición, la resonancia magnética y la electroencefalografía que permiten observar la actividad cerebral en tiempo real, ya son realidad. Son avances de la neurotecnología, que difuminan la frontera entre lo biológico y lo artificial, y que abren una vía de preocupación. Por ello, el autor defiende que necesitamos desarrollar nuevos marcos éticos, ya que estamos escribiendo el nuevo manual de instrucciones de la humanidad, un nuevo Renacimiento.
«Primero tenemos que blindar el territorio psicológico que, hasta hoy, siempre ha sido inviolable. Es una cuestión puramente ética, por supuesto. Igual que los derechos humanos surgen tras la Segunda Guerra Mundial, hoy hay una necesidad de reconocer que nuestra mente debe continuar siendo un territorio inviolable», confirma Martínez-Cortiña mientras apunta con el dedo. «Aquí estamos hablando de una amenaza, de una dictadura algorítmica silenciosa. No estamos hablando específicamente de gobiernos, sino de corporaciones tecnológicas que puedan manipular nuestras preferencias, sin que nosotros lo percibamos y esto, ya está pasando».
La Inteligencia Artificial ya está poniendo en jaque a la humanidad. En el texto se recoge un caso muy mediático recientemente ocurrido: un adolescente se suicidó recurriendo a la IA. «Todo esto parece que son escenas sacadas de una de película distópica, pero es que describen una realidad que ya vivimos», asevera el autor y añade que es hora de poner al día la Declaración Universal de Derechos Humanos que se redactó en 1948 y no se ha tocado desde entonces.
«Los primeros pasos legislativos se han dado en Chile con la modificación de la Carta Magna, que desde el 2021 decreta que los desarrollos tecnológicos deben resguardar la actividad cerebral y la información que procede de ella. También Colorado y California en Estados Unidos han incorporado los neurodatos en las legislaciones de privacidad. Y en España, estamos muy avanzados porque en la Carta de Derechos Digitales de 2021 ya hay una referencia a las neurotecnologías y además, el Gobierno de Cantabria ha dado un paso pionero siendo la primera comunidad autónoma en debatir los neuroderechos humanos en el Parlamento», afirma el experto mientras nos confiesa que esto último le animó a comenzar a difundir los neuroderechos.
«Ya no es ciencia ficción. Es un nuevo contrato social para la era de la inteligencia artificial, que no tiene como objetivo frenar el desarrollo tecnológico, sino incorporar un equilibrio ético”.
Para 2030, las empresas contarán con multitud de tecnologías inteligentes. Por eso, el autor defiende que hay que poner en marcha la normativa ya. «Imagina que entras en un banco, por ejemplo, y se produce una lectura de tus emociones, de manera que pudiesen aprovechar para venderte productos que realmente no necesitas. Te pillan en un momento emocional bajo y terminas contratando productos. Ahora hay muchísimos edificios inteligentes, pero va a haber muchos más que, sin tu consentimiento, van a hacer una lectura de tus emociones y aprovecharán para la comercialización de sus productos. En un hotel, en un spa… y si te quieres defender, ¿Dónde acudes? La Ley de protección de datos no lo incorpora. No hay una mención explícita», argumenta.
Y añade: «La Ley de Inteligencia Artificial de la Unión Europea de 2024, si bien incorpora temas como la biometría en términos generales, no hace menciones específicas sobre la libertad de pensamiento, la libertad cognitiva o la protección de los datos cerebrales».
El riesgo de utilizar neurotecnologías para nuestra privacidad hoy es alto, según el informe de la Fundación Neuroderechos.
El informe de la Fundación Neuroderechos ya lo advierte: el riesgo de utilizar neurotecnologías para nuestra privacidad hoy es alto. Esta organización internacional, presidida por el neurobiólogo español de la Columbia University de Nueva York, Rafael Yuste, busca proteger al ciudadano de violaciones de sus derechos de privacidad, de libertad de pensamiento e intimidad.
El investigador prospectivista Rafael Martínez-Cortiña, junto a Adolfo Castilla, ha dado un paso más allá publicando Neuroderechos en la era de las neurotecnologías: los nuevos derechos humanos del siglo XXI, que presentó el pasado 26 de septiembre en Madrid. Una guía para proteger nuestra soberanía mental en un mundo donde la inteligencia artificial y los interfaces cerebro-máquina empiezan a rozar nuestro territorio psicológico, pudiendo influir en nuestros pensamientos, creencias, sentimientos y decisiones, sin nuestro consentimiento.
«El mayor riesgo al que nos enfrentamos es no actuar. Vamos hacia un futuro donde tenemos el riesgo de perder nuestra privacidad mental con estos dispositivos que son capaces de rastrear nuestras emociones y nuestras intenciones», asegura Martínez-Cortiña.
Y añade: «Otro peligro de no actuar es que puede erosionar nuestro libre albedrío, que parece muy distópico cuando lo cuentas, pero claro, si estos algoritmos influyen, sin nuestro consentimiento, en nuestras decisiones y luego, además se añade un riesgo de brecha cognitiva, porque habrá personas que acceden a mejoras, es decir, humanos mejorados, frente a personas que no pueden permitírselo».
Un nuevo manual de instrucciones para la humanidad
Marcapasos cerebrales para tratar el Parkinson, implantes cocleares para la audición, la resonancia magnética y la electroencefalografía que permiten observar la actividad cerebral en tiempo real, ya son realidad. Son avances de la neurotecnología, que difuminan la frontera entre lo biológico y lo artificial, y que abren una vía de preocupación. Por ello, el autor defiende que necesitamos desarrollar nuevos marcos éticos, ya que estamos escribiendo el nuevo manual de instrucciones de la humanidad, un nuevo Renacimiento.
«Primero tenemos que blindar el territorio psicológico que, hasta hoy, siempre ha sido inviolable. Es una cuestión puramente ética, por supuesto. Igual que los derechos humanos surgen tras la Segunda Guerra Mundial, hoy hay una necesidad de reconocer que nuestra mente debe continuar siendo un territorio inviolable», confirma Martínez-Cortiña mientras apunta con el dedo. «Aquí estamos hablando de una amenaza, de una dictadura algorítmica silenciosa. No estamos hablando específicamente de gobiernos, sino de corporaciones tecnológicas que puedan manipular nuestras preferencias, sin que nosotros lo percibamos y esto, ya está pasando».
La Inteligencia Artificial ya está poniendo en jaque a la humanidad. En el texto se recoge un caso muy mediático recientemente ocurrido: un adolescente se suicidó recurriendo a la IA. «Todo esto parece que son escenas sacadas de una de película distópica, pero es que describen una realidad que ya vivimos», asevera el autor y añade que es hora de poner al día la Declaración Universal de Derechos Humanos que se redactó en 1948 y no se ha tocado desde entonces.
«Los primeros pasos legislativos se han dado en Chile con la modificación de la Carta Magna, que desde el 2021 decreta que los desarrollos tecnológicos deben resguardar la actividad cerebral y la información que procede de ella. También Colorado y California en Estados Unidos han incorporado los neurodatos en las legislaciones de privacidad. Y en España, estamos muy avanzados porque en la Carta de Derechos Digitales de 2021 ya hay una referencia a las neurotecnologías y además, el Gobierno de Cantabria ha dado un paso pionero siendo la primera comunidad autónoma en debatir los neuroderechos humanos en el Parlamento», afirma el experto mientras nos confiesa que esto último le animó a comenzar a difundir los neuroderechos.
«Ya no es ciencia ficción. Es un nuevo contrato social para la era de la inteligencia artificial, que no tiene como objetivo frenar el desarrollo tecnológico, sino incorporar un equilibrio ético”.
Para 2030, las empresas contarán con multitud de tecnologías inteligentes. Por eso, el autor defiende que hay que poner en marcha la normativa ya. «Imagina que entras en un banco, por ejemplo, y se produce una lectura de tus emociones, de manera que pudiesen aprovechar para venderte productos que realmente no necesitas. Te pillan en un momento emocional bajo y terminas contratando productos. Ahora hay muchísimos edificios inteligentes, pero va a haber muchos más que, sin tu consentimiento, van a hacer una lectura de tus emociones y aprovecharán para la comercialización de sus productos. En un hotel, en un spa… y si te quieres defender, ¿Dónde acudes? La Ley de protección de datos no lo incorpora. No hay una mención explícita», argumenta.
Y añade: «La Ley de Inteligencia Artificial de la Unión Europea de 2024, si bien incorpora temas como la biometría en términos generales, no hace menciones específicas sobre la libertad de pensamiento, la libertad cognitiva o la protección de los datos cerebrales».
20MINUTOS.ES – Cultura