Tecnología digital.

Vicente Bellver Capella

Catedrático de Filosofía del Derecho y Filosofía política en la Universitat de València.

Resumen de la conferencia pronunciada el 20 de septiembre en la Universidad Miguel Hernández.

La Tecnología Digital (TD) es una creación humana que puede o no ponerse al servicio del bien común, es decir, es proyectiva, y, por esta razón, salvable, pero la TD no es ni emancipadora, ni neutral, sino que, muchas veces, reemplaza la idea de bien común por una noción de bien proteico, que cambia constantemente en función del individuo y las tramas reticulares que se reconfiguran continuamente.

La TD ha evolucionado rápidamente. Desde una capa que permitía únicamente el acceso a la información (Internet 1.0) hemos pasado a la Internet de las cosas, los wearebles, las prótesis y los biomarcadores, la realidad aumentada, el machine learning, y a un entorno virtual en donde las personas interactúan entre sí a través de elementos de la realidad física y de la virtual para entretenerse, para estudiar, para trabajar (Metaverso). Actualmente, estamos bajo el señuelo de la Inteligencia Artificial y del proceso que analiza e interpreta grandes volúmenes de datos para la toma de decisiones (Big Data), que no siempre están al servicio del bien común. Debemos reflexionar sobre ello.

Se oye decir con frecuencia que la TD nos permite hacer muchas cosas que antes no podíamos hacer, y ello más rápida y cómodamente, o que aumenta nuestra productividad y competitividad, y también que nos deja más tiempo libre para la diversión, o que nos permite más relaciones sociales, es decir, que mejora nuestras vidas, pero quizá todo ello no sean más que falacias que proponen como valores absolutos lo que son únicamente valores relativos. Además, la TD tal y como está configurada más que enriquecer quizá lo que haga sea empobrecer nuestras vidas.

Para empezar, conviene desenmascarar la errónea premisa según la cual la TD es neutral y su valoración moral depende del uso que le demos.

La TD es el resultado de un conjunto de normas que actúa a varios niveles. En el primer nivel, el de la ética del usuario: ¿quién puede luchar contra las estrategias de neuromarketing que, además, están diseñadas a partir de nuestra información más personal e implementadas en función de ella? En la regulación jurídica de la actividad, que sería el segundo nivel: ¿quién puede regular el poder de las grandes empresas tecnológicas que cuentan con una vasta red de operaciones (Big-Tech), cuyo poder económico y legitimidad social es incomparable con la de ningún Estado del mundo? Al nivel de la efectividad social, la TD se ha enseñoreado tanto sobre la humanidad que pocos estarían dispuestos a renunciar al mundo virtual, tal como nos viene dado. Por último, al nivel de diseño de la TD, ¿están pensados los algoritmos para algo más que enganchar a los usuarios con contenidos “adictivos”? Una cosa es el relato y otra diferente la finalidad.

Otro engaño al que debemos hacer frente es el que afirma que “la TD es un avance científico más, como tantos otros en la Historia”. ¿Qué avance científico es tan omnipresente, invasivo, irresistible y poderoso como los teléfonos portátiles, Internet o las redes sociales, por ejemplo? 

Ante el imperioso avance de la TD en todos los sectores muchos piensan que “no es posible poner puertas al campo”. Sin embargo, su desarrollo dependerá de lo que decidamos las personas: de la interacción entre los intereses individuales de los usuarios y las Big-Tech; de la generación de un nuevo contrato social que defina lo que necesitamos de la TD y logre dirigirla para su consecución, pues una regulación sensata que establezca límites y orientación es imprescindible para humanizar la TD.

Recuperar la TD para el bien común plantea algunos desafíos regulatorios, que conviene comentar.

Las Big Tech están constituidas como el nuevo ecosistema en el que vivimos, y va a ser muy difícil ponerlas bajo control.

De muchas maneras y de muchos de nosotros se recogen diariamente numerosos datos, pero ¿de quién son propiedad? ¿Cómo se custodian y con qué fines se usan los datos personales? Este tema plantea bastantes dudas. Así, por ejemplo, en el campo de la salud nos encontramos con que los gobiernos tienen enormes y justificadas limitaciones para utilizar los datos personales de salud con fines de investigación y, por el contrario, las empresas privadas consiguen con gran facilidad datos personales de salud igualmente sensibles, pero con los que pueden hacer prácticamente lo que quieran. ¿No sería más sensato que el acceso al uso secundario de los datos de salud estuviera mucho más restringido en el ámbito privado (donde prevalece al interés individual) y hubiera más flexibilidad para su uso en el ámbito público, con las debidas salvaguardas, cuando esté orientado a la consecución de un bien común primario? La situación actual no puede ser más deficiente. Por un lado, los Estados se enfrenta a un marco regulatorio muy rígido que llega a impedir que los datos personales puedan emplearse para conseguir bienes colectivos de primera necesidad. Por otro, las Big-Tech acceden al Big-Data sin apenas restricciones para utilizar esos datos personales con intereses puramente crematísticos. Parece urgente embridar el uso privado de los datos personales y, al mismo tiempo, revisar la regulación sobre el uso de esos datos para fines de gran interés social.

Otro desafío lo plantean las aplicaciones informáticas (Apps) en cuya configuración falta transparencia y participación de los ciudadanos, pues los numerosos algoritmos que utilizamos, generalmente sin conocer y comprender, han sido diseñados en muchos casos con los objetivos más espurios.

Finalmente, es flagrante el negativo impacto de la tecnología digital para el pleno desarrollo de los jóvenes. Proteger la infancia en ese entorno se muestra, por tanto, como una prioridad de padres, maestros y profesores. Ahora bien, ese reto no lo pueden asumir sin el respaldo institucional, que proteja a los niños del acceso irrestricto a la TD, que les resulta claramente perjudicial. Desde luego, invadir las aulas de pantallas no parece que sea la mejor medida para conseguir ese objetivo. La educación digital, que solo es posible en un marco adecuado de protección de la infancia, no tiene nada que ver con enseñar a navegar, programar y subir contenido a la red. Consiste primariamente en aprender a reflexionar sobre nuestro lugar en el universo virtual, que compite por reemplazar íntegramente el mundo real. Esa educación digital no solo se dirige a los jóvenes, sino que constituye un desafío para todo ciudadano, porque también la democracia está en peligro por causa del diseño vigente de la TD: polarización de la plaza pública, exacerbación de la dimensión emocional de las personas, y proliferación de fake news, verdades alternativas y un neolenguaje que no son más que herramientas de manipulación social y política. Las  Big-Tech explotan no solo la plusvalía generada por el trabajo de los empleados sino la obtenida de recopilar todas las experiencias de vida de las personas. Vigilando el comportamiento de las personas y recopilando los datos derivados de esos comportamientos, las Big-Tech generan pronósticos de conducta que se ponen a la venta en una modalidad nueva de mercado, que es el mercado de la atención y de los pronósticos. Es lo que Shoshana Zuboff llama “Capitalismo de la vigilancia frente al que propone la alternativa del que llama capitalismo orientado a la ayuda. Ambos se diferencian tanto por el fin (servir al consumidor o aprovecharse de él) como por los métodos (recabar datos con permiso y con límites en el acceso, o recabarlos sin límite y sin restricción en el acceso). Zuboff entiende que debemos estar muy atentos porque lo peor está por llegar: cuando los gigantes tecnológicos ya no solo se conformen con predecir el comportamiento, sino que pasen a diseñarlo. Entonces, ya no bastará con automatizar los flujos de información sobre nosotros, sino que el objetivo será automatizarnos a nosotros mismos.

Los que negamos la neutralidad de la tecnología digital y denunciamos el perverso diseño del que ha sido objeto en la actualidad, y la devoción irracional con la que es venerada e incorporada a todos los planos de nuestra vida, solemos ser descalificados como tecnófobos. Sin embargo, denunciar la tecnolatría no es ser tecnófobo; es reconocer que la tecnología siempre es resultado de los fines que se propone y de la arquitectura con la que trata de llevarlos a cabo. Si esos fines son malos, la incorporación social de la TD será letal. Realmente, no podemos ser humanos sin la técnica, pero podemos dejar de serlo por la técnica. Los desafíos son enormes. Sin embargo, los ciudadanos podemos mirar al futuro con esperanza, siempre y cuando no nos conformemos con “dejar las cosas como están”. ¿Es acaso utopía pretender que los datos estén bajo una autoridad mundial que represente los intereses de la humanidad presente y futura? ¿Es acaso un sueño exigir que la arquitectura del entorno digital sea respetuosa con los derechos de las personas, no privándoles de su intimidad, no introduciendo mecanismos adictivos sin informar, dando a conocer el diseño de los algoritmos y acabando con monopolios? ¿Es acaso imposible expropiar los datos a las Big-Tech, o comprarlos? Ello nos permitiría poner los datos a trabajar para el ciudadano, creando soluciones de inteligencia artificial para el servicio público, como ha señalada, entre otras, Marta Peirano.