La brecha digital como brecha epistémica

El acceso a la tecnología digital no está distribuido por igual. La brecha digital no es solo una desigualdad económica — es una desigualdad epistémica: quienes no tienen acceso a internet, dispositivos o alfabetización digital quedan excluidos de una parte creciente del conocimiento disponible.

La tecnología puede tanto reducir como ampliar la desigualdad en el acceso al conocimiento, dependiendo de quién la controla, cómo se financia y qué decisiones políticas se toman sobre su distribución. Este es un problema ético central para TOK: si el conocimiento es poder, ¿quién decide quién tiene acceso a él?

🔍 Preguntas de conocimiento:

Hacktivismo: tecnología como desobediencia civil

El hacktivismo es el uso de la tecnología con un propósito político o social — a veces dentro de la legalidad, a veces fuera de ella. El término combina «hacking» y «activismo»: la idea de que acceder, manipular o difundir información puede ser un acto de resistencia política.

La máscara de Guy Fawkes, popularizada por la película V de Vendetta y adoptada por el colectivo Anonymous, es uno de los símbolos más reconocibles del hacktivismo contemporáneo. Plantea una pregunta TOK sobre perspectivas: ¿quién decide si una acción tecnológica es un acto de justicia o un delito?

Hacktivismo como desobediencia civil

La desobediencia civil —incumplir leyes injustas de forma pública y no violenta— tiene una larga tradición filosófica (Thoreau, Gandhi, King). El hacktivismo extiende esta tradición al espacio digital: filtrar documentos secretos o atacar sitios web de gobiernos represivos puede entenderse como denuncia de injusticias epistémicas.

Hacktivismo como amenaza al orden

Desde la perspectiva de los Estados y corporaciones afectadas, el hacktivismo es un delito que vulnera la seguridad, la privacidad y el Estado de derecho. La misma acción puede ser «filtración de información de interés público» o «robo de datos clasificados», dependiendo de quién la evalúe y desde qué posición.

Edward Snowden y la vigilancia masiva

En 2013, Edward Snowden —analista de la NSA— filtró miles de documentos clasificados que revelaron que las agencias de inteligencia de EE.UU. y Reino Unido monitorizaban masivamente las comunicaciones digitales de ciudadanos de todo el mundo, incluyendo aliados. El escándalo transformó el debate público sobre privacidad y vigilancia.

El caso Snowden ilustra con precisión la tensión ética en torno al conocimiento tecnológico:

La pregunta TOK no es si Snowden actuó bien o mal, sino: ¿quién tiene el derecho a decidir qué conocimiento puede hacerse público? ¿El Estado? ¿Los ciudadanos? ¿Los individuos que obtienen ese conocimiento?

IBM y la Alemania nazi: complicidad tecnológica

En los años 30 y 40, IBM proporcionó a la Alemania nazi sus máquinas de tabulación Hollerith, que permitieron al régimen procesar y gestionar los censos que identificaron a judíos, romaníes y otros grupos perseguidos. Esta capacidad de clasificación industrial aceleró la logística del Holocausto.

Este caso histórico plantea una de las preguntas éticas más fundamentales sobre tecnología: ¿puede una empresa que fabrica una herramienta ser responsable del uso que otros hacen de ella? ¿Hasta dónde llega la responsabilidad epistémica del productor tecnológico?

💡 La analogía del piloto: si un piloto lanza bombas siguiendo órdenes, ¿es responsable de las muertes que causa? La respuesta filosófica habitual es sí — la obediencia no elimina la responsabilidad moral. La misma lógica aplica a los ingenieros, científicos y empresas que desarrollan tecnologías que pueden usarse para dañar.

La cadena de responsabilidad tecnológica

Cuando una tecnología causa daño, ¿quién es responsable? La respuesta no es simple, porque la responsabilidad se distribuye a lo largo de una cadena:

Productores

Los ingenieros, diseñadores y empresas que crean la tecnología. Tienen responsabilidad por los usos previsibles de lo que fabrican, aunque no puedan controlar todos los usos posibles.

Operadores

Las organizaciones o individuos que despliegan la tecnología en contextos concretos — gobiernos, empresas, ONGs. Tienen responsabilidad por cómo configuran y utilizan lo que adquieren.

Usuarios

Las personas que usan la tecnología en su vida cotidiana. Su responsabilidad es menor —especialmente cuando no comprenden completamente lo que usan— pero no nula: el uso irreflexivo también tiene consecuencias epistémicas y éticas.

🔍 Pregunta de conocimiento: ¿Debemos hacer responsables a las personas por las aplicaciones de las tecnologías que desarrollan? ¿Hay situaciones en las que la ignorancia es excusa para un comportamiento poco ético?

Big data y sesgos algorítmicos: Cathy O'Neil

La matemática Cathy O'Neil, en su libro Weapons of Math Destruction (2016), acuñó el término «armas de destrucción matemática» para describir los algoritmos que toman decisiones que afectan profundamente la vida de las personas —créditos, contrataciones, sentencias judiciales— y que perpetúan o amplifican sesgos existentes de género, raza y clase.

El problema: los algoritmos parecen objetivos, pero no lo son

Los algoritmos de machine learning aprenden de datos históricos. Si esos datos reflejan decisiones discriminatorias pasadas —que ciertos barrios sean tratados como más peligrosos, que ciertos perfiles sean sistemáticamente rechazados en entrevistas— el algoritmo aprende a replicar esa discriminación y la presenta como resultado «objetivo» y «neutral».

La ilusión de objetividad matemática hace que estos sesgos sean más difíciles de detectar y cuestionar que los sesgos humanos explícitos. Un evaluador humano puede ser interrogado; un algoritmo presenta sus resultados como si fueran hechos.

Ejemplos concretos de sesgo algorítmico
  • Sistemas de puntuación de riesgo en justicia penal — herramientas como COMPAS en EE.UU. asignan puntuaciones de «riesgo de reincidencia» que los jueces usan para decidir sentencias. Los estudios muestran que sobreestiman el riesgo para afroamericanos y lo subestiman para blancos.
  • Algoritmos de selección de currículums — Amazon desarrolló un sistema que aprendió a penalizar currículums con la palabra «mujeres» (como en «presidenta del club de mujeres en ciencias») porque los datos históricos reflejaban que los contratos se habían dado mayoritariamente a hombres.
  • Publicidad dirigida — los algoritmos de Facebook mostraban anuncios de empleos mejor remunerados principalmente a hombres, no porque la empresa lo decidiera explícitamente, sino porque el sistema optimizó según datos históricos.

Transhumanismo: ¿puede la tecnología ampliar al conocedor?

El transhumanismo es la corriente filosófica que sostiene que la tecnología puede y debe usarse para superar las limitaciones biológicas humanas — incluyendo las cognitivas. Si la tecnología puede extender los sentidos, ¿puede también extender la capacidad de conocer?

Kevin Warwick (1954–), catedrático de cibernética en la Universidad de Reading, fue uno de los primeros investigadores en implantar chips electrónicos en su propio cuerpo para comunicarse con sistemas informáticos y otros implantados. Su caso plantea una pregunta TOK radical: si un humano con implante neuronal puede procesar información que un humano sin implante no puede percibir, ¿tiene acceso a formas de conocimiento cualitativamente distintas?

La posición transhumanista

Las limitaciones cognitivas humanas son contingentes, no esenciales. Así como las gafas no hacen «menos humano» al que las lleva, los implantes cognitivos son simplemente prótesis más avanzadas. Ampliar la capacidad epistémica es un bien en sí mismo.

La posición crítica

Los implantes tecnológicos crearían una nueva brecha epistémica entre aumentados y no aumentados, planteando preguntas de equidad y acceso. Además, si el conocimiento depende de la comprensión, ¿procesar más datos equivale realmente a conocer más?

🔍 Pregunta de conocimiento: Si un ser humano con implantes tecnológicos puede acceder a información que los no aumentados no pueden percibir, ¿tiene eso implicaciones para qué contamos como conocimiento válido?