La brecha digital como brecha epistémica
El acceso a la tecnología digital no está distribuido por igual. La brecha digital no es solo una desigualdad económica — es una desigualdad epistémica: quienes no tienen acceso a internet, dispositivos o alfabetización digital quedan excluidos de una parte creciente del conocimiento disponible.
La tecnología puede tanto reducir como ampliar la desigualdad en el acceso al conocimiento, dependiendo de quién la controla, cómo se financia y qué decisiones políticas se toman sobre su distribución. Este es un problema ético central para TOK: si el conocimiento es poder, ¿quién decide quién tiene acceso a él?
- ¿Cómo podría la tecnología empeorar o mitigar el acceso desigual al conocimiento?
- ¿Utilizamos diferentes criterios para tomar decisiones éticas en entornos virtuales, en comparación con el mundo físico?
- ¿Influye la Internet profunda en si ciertos conocimientos deben permanecer secretos?
Hacktivismo: tecnología como desobediencia civil
El hacktivismo es el uso de la tecnología con un propósito político o social — a veces dentro de la legalidad, a veces fuera de ella. El término combina «hacking» y «activismo»: la idea de que acceder, manipular o difundir información puede ser un acto de resistencia política.
La máscara de Guy Fawkes, popularizada por la película V de Vendetta y adoptada por el colectivo Anonymous, es uno de los símbolos más reconocibles del hacktivismo contemporáneo. Plantea una pregunta TOK sobre perspectivas: ¿quién decide si una acción tecnológica es un acto de justicia o un delito?
Hacktivismo como desobediencia civil
La desobediencia civil —incumplir leyes injustas de forma pública y no violenta— tiene una larga tradición filosófica (Thoreau, Gandhi, King). El hacktivismo extiende esta tradición al espacio digital: filtrar documentos secretos o atacar sitios web de gobiernos represivos puede entenderse como denuncia de injusticias epistémicas.
Hacktivismo como amenaza al orden
Desde la perspectiva de los Estados y corporaciones afectadas, el hacktivismo es un delito que vulnera la seguridad, la privacidad y el Estado de derecho. La misma acción puede ser «filtración de información de interés público» o «robo de datos clasificados», dependiendo de quién la evalúe y desde qué posición.
Edward Snowden y la vigilancia masiva
En 2013, Edward Snowden —analista de la NSA— filtró miles de documentos clasificados que revelaron que las agencias de inteligencia de EE.UU. y Reino Unido monitorizaban masivamente las comunicaciones digitales de ciudadanos de todo el mundo, incluyendo aliados. El escándalo transformó el debate público sobre privacidad y vigilancia.
El caso Snowden ilustra con precisión la tensión ética en torno al conocimiento tecnológico:
- Para sus defensores: actuó como denunciante que expuso abusos del poder estatal que el público tenía derecho a conocer — el conocimiento es una condición de la democracia.
- Para sus detractores: puso en riesgo operaciones de inteligencia y la seguridad nacional — hay conocimiento que debe permanecer secreto para proteger vidas.
La pregunta TOK no es si Snowden actuó bien o mal, sino: ¿quién tiene el derecho a decidir qué conocimiento puede hacerse público? ¿El Estado? ¿Los ciudadanos? ¿Los individuos que obtienen ese conocimiento?
IBM y la Alemania nazi: complicidad tecnológica
En los años 30 y 40, IBM proporcionó a la Alemania nazi sus máquinas de tabulación Hollerith, que permitieron al régimen procesar y gestionar los censos que identificaron a judíos, romaníes y otros grupos perseguidos. Esta capacidad de clasificación industrial aceleró la logística del Holocausto.
Este caso histórico plantea una de las preguntas éticas más fundamentales sobre tecnología: ¿puede una empresa que fabrica una herramienta ser responsable del uso que otros hacen de ella? ¿Hasta dónde llega la responsabilidad epistémica del productor tecnológico?
La cadena de responsabilidad tecnológica
Cuando una tecnología causa daño, ¿quién es responsable? La respuesta no es simple, porque la responsabilidad se distribuye a lo largo de una cadena:
Productores
Los ingenieros, diseñadores y empresas que crean la tecnología. Tienen responsabilidad por los usos previsibles de lo que fabrican, aunque no puedan controlar todos los usos posibles.
Operadores
Las organizaciones o individuos que despliegan la tecnología en contextos concretos — gobiernos, empresas, ONGs. Tienen responsabilidad por cómo configuran y utilizan lo que adquieren.
Usuarios
Las personas que usan la tecnología en su vida cotidiana. Su responsabilidad es menor —especialmente cuando no comprenden completamente lo que usan— pero no nula: el uso irreflexivo también tiene consecuencias epistémicas y éticas.
Big data y sesgos algorítmicos: Cathy O'Neil
La matemática Cathy O'Neil, en su libro Weapons of Math Destruction (2016), acuñó el término «armas de destrucción matemática» para describir los algoritmos que toman decisiones que afectan profundamente la vida de las personas —créditos, contrataciones, sentencias judiciales— y que perpetúan o amplifican sesgos existentes de género, raza y clase.
Los algoritmos de machine learning aprenden de datos históricos. Si esos datos reflejan decisiones discriminatorias pasadas —que ciertos barrios sean tratados como más peligrosos, que ciertos perfiles sean sistemáticamente rechazados en entrevistas— el algoritmo aprende a replicar esa discriminación y la presenta como resultado «objetivo» y «neutral».
La ilusión de objetividad matemática hace que estos sesgos sean más difíciles de detectar y cuestionar que los sesgos humanos explícitos. Un evaluador humano puede ser interrogado; un algoritmo presenta sus resultados como si fueran hechos.
- Sistemas de puntuación de riesgo en justicia penal — herramientas como COMPAS en EE.UU. asignan puntuaciones de «riesgo de reincidencia» que los jueces usan para decidir sentencias. Los estudios muestran que sobreestiman el riesgo para afroamericanos y lo subestiman para blancos.
- Algoritmos de selección de currículums — Amazon desarrolló un sistema que aprendió a penalizar currículums con la palabra «mujeres» (como en «presidenta del club de mujeres en ciencias») porque los datos históricos reflejaban que los contratos se habían dado mayoritariamente a hombres.
- Publicidad dirigida — los algoritmos de Facebook mostraban anuncios de empleos mejor remunerados principalmente a hombres, no porque la empresa lo decidiera explícitamente, sino porque el sistema optimizó según datos históricos.
Transhumanismo: ¿puede la tecnología ampliar al conocedor?
El transhumanismo es la corriente filosófica que sostiene que la tecnología puede y debe usarse para superar las limitaciones biológicas humanas — incluyendo las cognitivas. Si la tecnología puede extender los sentidos, ¿puede también extender la capacidad de conocer?
Kevin Warwick (1954–), catedrático de cibernética en la Universidad de Reading, fue uno de los primeros investigadores en implantar chips electrónicos en su propio cuerpo para comunicarse con sistemas informáticos y otros implantados. Su caso plantea una pregunta TOK radical: si un humano con implante neuronal puede procesar información que un humano sin implante no puede percibir, ¿tiene acceso a formas de conocimiento cualitativamente distintas?
La posición transhumanista
Las limitaciones cognitivas humanas son contingentes, no esenciales. Así como las gafas no hacen «menos humano» al que las lleva, los implantes cognitivos son simplemente prótesis más avanzadas. Ampliar la capacidad epistémica es un bien en sí mismo.
La posición crítica
Los implantes tecnológicos crearían una nueva brecha epistémica entre aumentados y no aumentados, planteando preguntas de equidad y acceso. Además, si el conocimiento depende de la comprensión, ¿procesar más datos equivale realmente a conocer más?