Se presenta como la última frontera de la privacidad y la libertad de pensamiento. Propone «asegurar esta libertad de pensamiento, que el cerebro humano sea la última frontera, que sigamos siendo dueños de nuestro pensamiento», afirma la especialista en comunicación digital Patricia Bertolotti durante una entrevista en Plural.


Jueves 4 de diciembre de 2025. La Unesco acaba de aprobar, por unanimidad entre sus países miembros, un marco ético global para regular el desarrollo y uso de la neurotecnología. La licenciada en Comunicación Social y especialista en comunicación digital Patricia Bertolotti analizó en Plural las implicancias de esta medida y la urgente necesidad de debatir sobre los neuroderechos.
Este análisis surge en un momento en que, por ejemplo, los relojes inteligentes monitorean el sueño de sus usuarios, mientras algunas aplicaciones rastrean el movimiento de la vista cuando se observa el teléfono celular u otras pantallas, dejando ver que la línea entre la tecnología de asistencia y la manipulación de la conducta se vuelve cada vez más difusa.
Sin caer en la imagen de ciencia ficción de un chip implantado, la Unesco define la neurotecnología de manera mucho más amplia y, por lo tanto, más cercana a la vida diaria. «Siempre pensamos que la neurotecnología es la tecnología que te ponen un chip implantado. Y en realidad la Unesco dice que no, que es mucho más amplio», explica Bertolotti.
La clasificación incluye desde tecnologías invasivas (como los implantes cerebrales para tratar el párkinson) hasta las no invasivas, describió, para rescatar a modo de ejemplo los relojes inteligentes que miden el ritmo cardíaco y el sueño, los auriculares con sensores biométricos o las aplicaciones de eye-tracking (seguimiento de la mirada). «Esto también [es neurotecnología] porque lee los datos de dónde está yendo nuestra mirada… y deduce cosas», señala la especialista. Esa deducción –inferir estados emocionales, niveles de atención o intenciones– es la puerta a una posible manipulación.
El núcleo de la propuesta de la Unesco es la defensa del cerebro humano como «la última frontera». El organismo busca «asegurar esta libertad de pensamiento, que el cerebro humano sea la última frontera, digamos, que sigamos siendo dueños de nuestro pensamiento», afirma Bertolotti.
El riesgo no es abstracto. Tecnologías de neuromarketing, interfaces que preparan la mente para reaccionar de cierta manera o estímulos diseñados para inducir una compra son ejemplos de cómo se puede vulnerar esa libertad. «Todo esto son tecnologías que de alguna manera están manipulando», alerta. La situación es especialmente crítica en grupos vulnerables como los niños, cuyos cerebros, más permeables, están expuestos a estas influencias sin filtro.
Un punto que destacó Bertolotti es que estas tecnologías son de «doble entrada». No solo capturan los datos biométricos (entrada), sino que también pueden emitir estímulos (salida). «Por un lado, tomar tus datos mientras dormís y por el otro lado… mandarte publicidad mientras dormís. Todo esto la Unesco considera que hay que prohibir terminantemente. La publicidad durante el sueño, por ejemplo», ejemplificó.
Este mecanismo recuerda a la publicidad subliminal de antaño, pero con una potencia y precisión sin precedentes. El reloj que usamos para trotar, vinculado a nuestro teléfono, no solo puede sugerirnos zapatillas deportivas, sino que podría, en teoría, intentar influir en nuestro estado mental durante la noche, dijo.
El marco de la Unesco, aunque no es vinculante, sienta las bases para que los países desarrollen legislación específica. Es el primer ladrillo en la construcción de unos neuroderechos que muchos académicos y profesionales, incluidos economistas, proponen elevar a la categoría de derechos humanos.
«Estamos viviendo en un hábitat digital y no nos damos cuenta, y si no hay cierta regulación… no sabemos que estamos siendo manipulados», reflexionó Bertolotti. La clave, dijo, no es el catastrofismo, sino la conciencia y el pensamiento crítico. «Hablemos de los riesgos, pero no para ser catastróficos, sino para ser conscientes y responsables».
La entrevista también abordó la opacidad de las grandes tecnológicas. Bertolotti mencionó el caso de ChatGPT: los datos generados en la interacción con la inteligencia artificial, pagando incluso por el servicio, son propiedad de OpenAI, no del usuario. «Si le pide el Estado norteamericano esos datos, los va a entregar», aseguró.
Frente a esto, la especialista llamó a la responsabilidad individual (leer, aunque sea en parte, los extensos «términos y condiciones») y a la acción colectiva para exigir transparencia. «Podemos pensar una tecnología de este tipo que sea para beneficio de la humanidad. ¿Por qué no?», plantea con un optimismo cauteloso.
Mientras los medios suelen enfocarse en promocionar el uso de la IA como una habilidad imprescindible, Bertolotti destaca la urgencia de equilibrar el discurso con una mirada ética y crítica. La neurotecnología llegó para quedarse y evolucionar con nosotros, pero su diseño y aplicación no pueden quedar solo en manos del mercado y la lógica del beneficio económico.
La advertencia de la Unesco es un llamado de atención. El desafío ahora es trasladar este debate técnico y regulatorio a la esfera pública, para que como sociedad decidamos qué límites ponemos a la tecnología que ya está leyendo –e influyendo– en nuestras mentes. Como concluye Bertolotti: «Yo quiero ser optimista… Creo que el ser humano no va a ir contra sí mismo». El tiempo, y nuestra capacidad para regular lo que hemos creado, tendrán la última palabra.

Patricia Bertolotti en Plural

—¿Cuál es la advertencia que termina o que empieza haciendo hace poco la Unesco respecto a las prácticas y al uso de cuestiones relacionadas a la neurotecnología, a la tecnología en los humanos?
—En principio lo que hay que aclarar es que la Unesco, el 5 de noviembre de este año, aprobó un marco regulatorio que, en realidad, como la Unesco no regula, es una sugerencia, una propuesta para los países miembros; y todos votaron por unanimidad este marco para regular la neurotecnología. En este documento, que es muy interesante, que se puso en vigencia a partir del 12 —se aprobó el 5 y se puso en vigencia el 12 de noviembre—, donde se viene trabajando desde 2021, imaginate. Así que es muy interesante lo que plantea, y lo más interesante es que define justamente esto que vos decías, qué es la neurotecnología. Entonces, nosotros siempre pensamos que la neurotecnología es la tecnología que te ponen un chip, el chipcito implantado. Y en realidad la Unesco dice que no, que es mucho más amplio, que hay y clasifica estas tecnologías como, por ejemplo, las tecnologías que son invasivas, que sería por un lado el chip; las no invasivas, por ejemplo, los relojes inteligentes, las tecnologías del eye tracking, o sea, el seguimiento de la mirada. Hay algunas aplicaciones que tienen seguimiento de la mirada. Entonces, eso también porque lee los datos de dónde está yendo nuestra mirada, nuestro ojito cuando estamos en la pantalla, y deduce cosas. Entonces clasifica por un lado…

—Deduce cosas que infiere que pueden ser devueltas de manera positiva o de manera negativa.
—Exacto. Por eso no es que te está leyendo la mente, pero infiere —de acuerdo—, infiere tu conducta de acuerdo a las reacciones que tenés. Entonces, vos estás mirando una red social y te va… esto está leyendo la mirada. Entonces, estas tecnologías, las tecnologías, por ejemplo, que siguen el ritmo cardíaco, las tecnologías que sirven… que no parecen invasivas, o sea, no parecen…

—Aquello que me coloco voluntariamente para salir a trotar.
—Para salir a trotar, los auriculares que tienen algún tipo de cuestión inteligente. Todo esto es considerado como neurotecnología, y ellos clasifican como invasiva, no invasiva por un lado. Después tienen otra clasificación que tiene que ver con si solamente toma datos o si también envía pulsos.

—¿Enviar pulso es inducirte a conductas?
—No. Enviar pulso es, por ejemplo, las tecnologías que armonizan el pensamiento. Por ejemplo, una persona que tiene párkinson, lo que le hace ese aparato que se usa en salud tiene que ver con que le envía pulsos electromagnéticos al cerebro para que regule. Entonces, están las tecnologías que solamente toman datos, que sería por ejemplo el reloj inteligente, y otras que no, que son justamente las que envían pulsos… que a lo mejor no te ponen ningún chip. Y después ellos hacen otra clasificación: las tecnologías usadas para la salud y las que no son usadas para la salud. Entonces, al definir y hacer como un marco de esto, también avanzan sobre la necesidad de declarar al cerebro como el pensamiento humano libre. Asegurarse que uno pueda ser libre del pensamiento. ¿Por qué? Porque hay muchas tecnologías que tienen que ver, por ejemplo, con el neuromarketing o algunas tecnologías que, bueno, tienen nombre en inglés, que tienen que ver con estas tecnologías que, por ejemplo, preparan la mente para que uno reaccione de determinada manera. Otras generan impulsos para que uno haga algo, por ejemplo, cerrar una compra. Todo esto son tecnologías que de alguna manera están manipulando. Entonces, lo que busca la Unesco es asegurar esta libertad de pensamiento, que el cerebro humano sea la última frontera, digamos, que sigamos siendo dueños de nuestro pensamiento. Obviamente que esto es una sugerencia. La Unesco no puede…

—Digamos que de manera compulsiva bajar…
—No, no, para nada. Aparte se juntan todos los países miembros, generan esto como una sugerencia y alertan a los países diciendo: «Bueno, si van a ser necesarios, regulen; si van a hacer un marco regulatorio, tengan esto como sugerencia», es como un marco base. Y bueno, lo más interesante de esto es que se está yendo hacia una búsqueda de la declaración de los neuroderechos. ¿Qué significa esto? Significa que hay un consenso entre varios investigadores, inclusive hoy escuchaba hasta de economistas —el Colegio de Economistas de Madrid, por ejemplo, escribió un libro sobre los neuroderechos— que impulsan incorporar como un derecho humano la libertad de pensamiento, porque estamos siendo… digamos, nosotros estamos viviendo en un hábitat digital y no nos damos cuenta, y si no hay cierta regulación y cierta contención en estas tecnologías o, por lo menos, como dicen en estas declaraciones de neuroderechos, que vos sepas… porque nosotros no sabemos que estamos siendo manipulados. O sea, de pronto yo sé que mi reloj toma mi ritmo cardíaco, que salgo a correr y me dice: «¿Cuántos pasos doy? ¿Qué hace mi corazón cuando voy haciendo esos pasos?». Pero no sabía que también eso puede inferir determinados estados de pensamiento. También hay, por ejemplo, un seguimiento del sueño. En el seguimiento del sueño también se infiere, y además también está el ida y vuelta. Por un lado, tomar tus datos mientras dormís y, por el otro lado, darte, mandarte publicidad mientras dormís. Todo esto la Unesco considera que hay que prohibir terminantemente. La publicidad durante el sueño, por ejemplo.

—Me hace acordar, Patricia, no sé, los años 70, creo que fue aquello de que entre los fotogramas de una película del cine aparecía la Coca-Cola.
—Sí, la publicidad subliminal. Y bueno, no lo veías, pero entre cuadro y cuadro te ponían la publicidad y salías del cine, te tomabas una Coca-Cola porque morías de ganas de tomar una Coca-Cola. Esto es más o menos lo mismo, pero mucho más complejo y mucho más peligroso también, porque estamos hablando de qué pasa con un niño que tiene un cerebro tan frágil, tan permeable. Bueno, la manipulación es tremenda. Entonces, creo que hay que ser conscientes de estas cuestiones y que los países puedan proteger a los ciudadanos de alguna manera. No sé si incorporar o no como un derecho humano, pero sí saber que estas tecnologías están, tener, digamos, la posibilidad de saber cuando estamos usando una tecnología qué tipo de injerencia en nuestro cerebro está planteando, ¿no es cierto?

—Más allá de la publicidad, porque voy pensando el reloj que te toma el pulso cardíaco, la cantidad de pasos, que ese reloj está vinculado con el teléfono, que te habilita, por ejemplo, a publicidades de una zapatilla o de un conjunto deportivo, pero también por la noche tratando de generar alguna interferencia mientras dormís. O sea, no solamente esa publicidad explícita de las redes sociales.
—Exactamente, es así. Entonces, el primer punto: no ser catastrófico, sino tomar conciencia de que todas estas tecnologías son de doble entrada. ¿Qué significa? Toman datos, pero también dan, generan datos. Buscan, de alguna manera, es de salida y de entrada todo. Entonces, tener muy claro esto y darnos cuenta de que estamos interactuando con una tecnología que tampoco sabemos hasta dónde llega, porque es bastante opaca, digamos. Y eso es lo que buscan organismos como la Unesco cuando dicen: «Esto tenemos que regularlo porque no está… está siendo manejado por empresas que buscan el beneficio económico —y que no está mal—, pero digo… pero no a través de la manipulación».

—Patricia, todavía estos temas están muy por lo bajo en los medios, pero no está apareciendo.
—No, no está apareciendo. Y yo, bueno, es raro porque, aparte, siempre se promueve el uso de la inteligencia artificial. Se dice: «Ay, si no sabés usar la inteligencia artificial, no vas a poder trabajar después». Lo cual no me parece mal. Pero también hablemos de los riesgos, pero no para ser catastróficos, sino para ser conscientes y responsables de lo que estamos haciendo, hacer un uso responsable y tener también un pensamiento crítico, porque la idea perfecta a mí me encanta, yo la uso un montón, pero tenemos que saber que no es infalible, que tiene sesgos, que cuando uno le pregunta cosas y ella no tiene la respuesta, la inventa porque no puede no responder. Entonces, todo esto lo tenemos que saber. Y, por ejemplo, cuando un estudiante tiene que presentar un trabajo y le pide al ChatGPT que le haga el trabajo y después no lo chequea, y hay muchas cuestiones que están mal… o sea, no hay que creerle. Yo estaba en reuniones donde no… a ver, se discute, viste que en las reuniones todo el mundo quiere ser el dueño de la verdad y se discute, y le preguntás a la inteligencia artificial como si fuese Dios.

—Nosotros hicimos un experimento bien sencillo acá en el programa en octubre, el 30 de octubre, ya no me acuerdo si de este año o del año pasado, y le preguntábamos: desde el 30 de octubre de 1983, que se votó, a este 30 de octubre, no me acuerdo si fue del 24 o del 25, ¿cuántos días pasaron? Y le preguntamos a las tres inteligencias más usadas: la de WhatsApp, al ChatGPT y a Gemini y a DeepSeek la… y dieron cuatro respuestas totalmente diferentes, y es un cálculo matemático, es contar días nada más.
—Por eso, uno cuando la usa mucho se da cuenta de que miente mucho, y ni siquiera… no es que miente, contesta lo que procesa ahí. Y hay que saber también que se le puede preguntar porque cada formato de chatbot, digamos, tiene distintas formas de responder. Entonces, si uno quiere sacarle el mejor jugo, bueno, entender cómo funciona cada uno y usarla cada una para lo que mejor sirve, pero no creerle todo.

—¿Tenemos que pensar en normas éticas para el uso de la neurotecnología?
—Desde ya. Por eso justamente este marco regulatorio plantea normas éticas que tienen que ser tomadas a la hora de aceptar esta tecnología en los países. No son recomendaciones caseras ni domésticas, son recomendaciones de qué se le debe exigir a estas empresas en el sentido de cierta transparencia para ver qué hacen con los datos, por ejemplo, porque hay empresas que ya están sacando datos nuestros y que dicen que los datos son de ellos. Porque te hacen, cuando vos bajás una aplicación, te dice: «Aceptar los términos y condiciones». Uno no lee nunca. Esos son 15 páginas de términos y condiciones. ¿Y qué estás aceptando? Estás aceptando que todos los datos… no tenés ningún tipo de propiedad respecto a esos datos. Inclusive en el ChatGPT: nosotros estamos pagando un servicio, yo tengo el pago y estoy interactuando y le estoy preguntando cosas y estoy generando un corpus de datos que me pertenece, o sea, que es mío, porque yo generé esa interacción con el chat. Sin embargo, quedó clarísimo porque lo dijo Sam Altman y lo dijeron en Estados Unidos, que eso es propiedad de OpenAI, digamos, y además, si le… y él dijo que si le pide el Estado norteamericano esos datos, los va a entregar. O sea, que nosotros no estamos siendo dueños de ese corpus. Salvo que nosotros bajemos en un servidor local y usemos ese mismo servicio como local, para lo cual hay que pagar, poner una API, digamos, tiene todo un costo, porque hay otras formas que no son tan onerosas, pero que para mí tienen un costo igual.

—¿Cómo van a reaccionar las naciones con esto? Y bueno, porque la recomendación ya está.
—Sí, yo quiero ser optimista, yo tengo la obligación de ser optimista. Creo en el ser humano, yo soy profundamente humanista. Entonces, creo que el ser humano no va a ir contra sí mismo, en algún momento va a reaccionar, y que estas tecnologías se van a ir acomodando. Yo creo que hay un giro a partir de todo esto que estamos viviendo. Yo siento que hay un giro de volver a mirarnos las caras, a volver a una conversación cuerpo a cuerpo, digamos, y no virtual. Hay una necesidad también de volver a lo analógico. No digo que vamos a volver a eso porque ya es imposible. Esto no vamos para atrás. Esto vino para quedarse, y para evolucionar, y es la evolución del ser humano como especie. Estamos evolucionando como especie y esto… lo que pasa es que esto es un salto tan fuerte, que bueno, por ahí nos excede un poco y, además, es un salto propuesto por determinadas personas, no por todas, pero impactan en el mundo. Y además nadie pidió esto. Cuando amanecimos un día teníamos el chat de WhatsApp, el chat de Instagram, y no nos preguntaron si queríamos. Ahí lo tenés, usalo. Y encima nos bombardean diciendo que cuanto más lo usamos más geniales somos. Entonces, tenemos que replantearnos también esto y decir: somos nosotros. La inteligencia artificial, digo yo siempre, no es un alien. No vino acá alguien y dijo: «Bueno, tengan esta tecnología». No, es una tecnología hecha por humanos. ¿Qué significa esto? Que podríamos haberla pensado distinto, que podemos pensarla distinto. Que no sea orientada a ganar dinero solamente, que no sea orientada a la manipulación para tener el poder. Podemos pensar una tecnología de este tipo que sea para beneficio de la humanidad. ¿Por qué no? Yo soy optimista en eso. Estas son las primeras cuestiones y es como que nos vinieron de golpe, pero creo que el mundo se va… Quiero creer, pongo toda mi voluntad para creer que nos vamos a acomodar y que el ser humano va a salir evolucionado, pero no destruido.