Etiqueta: racismo

  • ¿Sirven las redes sociales al radicalismo?

    ¿Sirven las redes sociales al radicalismo?






    ¿Sirven las Redes Sociales al Radicalismo? Análisis de Mecanismos de Radicalizacion Digital 2024


    ¿Sirven las Redes Sociales al Radicalismo?
    Análisis comprehensivo de mecanismos de radicalizacion digital, evidencia científica de amplificación extremista y arquitectura de redes sociales como facilitador de violencia política (2024)

    Radicalismo en la Era Digital: Cuando Algoritmos Alimentan el Odio

    Explorando cómo redes sociales sirven como infraestructura para radicalización: mecanismos tecnológicos, dinámicas emocionales, casos de estudio y responsabilidad corporativa en contexto de violencia extremista

    Introducción: La Respuesta Simple y Complicada

    La respuesta corta a la pregunta «¿Sirven las redes sociales al radicalismo?» es: sí, directa, significativa y mediblemente. Las redes sociales no solamente «sirven» al radicalismo; funcionan como infraestructura amplificadora, ecosistema de retroalimentación, y laboratorio de radicalización donde extremismo político e ideológico prospera de formas sin precedente histórico.

    Sin embargo, la respuesta compleja es más matizada: las redes sociales no «causan» radicalismo en sentido lineal determinista. En su lugar, proporcionan condiciones ambientales óptimas para que personas con predisposición hacia extremismo encuentren comunidad, validación, ideología sistematizada, y finalmente inspiración para violencia. Es la interacción entre arquitectura tecnológica, diseño de algoritmos, psicología humana y dinámicas políticas la que produce radicalización.

    La Pregunta Central

    ¿Son redes sociales simplemente «plataformas neutrales» donde usuarios expresan opiniones pre-existentes? ¿O son sistemas diseñados que activamente modulan, amplifican y radicalizan contenido basado en lógica de engagement, profit, y poder? La evidencia científica sugiere fuertemente lo segundo. Esto tiene implicaciones profundas para responsabilidad corporativa, regulación, y seguridad pública.

    Contexto: Ataques Violentos y Conexión a Redes Sociales
    70%+
    Atacantes extremistas con actividad online previa

    4.6B
    Usuarios activos de redes sociales globales

    8x
    Contenido extremista amplificado vs. moderado

    24h
    Tiempo promedio de radicalización digital

    En últimas décadas, ataques terroristas e ideológicos violentos frecuentemente han compartido patrón: atacante tuvo rastro digital en redes sociales, participó en comunidades extremistas online, consumió contenido radicalizador, e interactuó con materiales inspiradores antes de perpetrar violencia. Ejemplos incluyen ataques en Nueva Zelanda (Christchurch), EE.UU. (múltiples tiroteos), Europa (ataques terroristas), donde analistas forense encontraron conexiones explícitas a redes sociales como infraestructura de radicalizacion.

    El Estudio Princeton-Cornell-Indiana-Qatar: Evidencia de Radicalizacion Digital

    Investigación Clave: Análisis de Twitter 2016

    Investigación multiinstitucional (Princeton, Cornell, Indiana, Qatar University) publicada en EPJ Data Science (2016) analizó 10.000 cuentas de Twitter (5.000 liberales, 5.000 conservadores) para cuantificar patrones emocionales de extremismo político.

    Hallazgo Principal Especificación Implicación
    Extremismo Emocional Extremistas (ambos lados político) expresaban más emociones negativas (ira, desprecio, miedo) que no-extremistas Extremismo está asociado a perfil emocional negativo identificable algorítmicamente
    Diferencia No Significativa entre Lados Patrón emocional negativo se observó tanto en extremistas liberales como conservadores Radicalización no es fenómeno unidireccional; ocurre a lo largo de espectro político
    Ansiedad en Liberales Liberales tendían a expresar más ansiedad que conservadores Mecanismos emocionales de radicalizacion pueden ser diferentes por ideología (ansiedad vs. ira)
    Polarización Refuerzo Mutuo Extremistas de ambos lados se exposaban repetidamente a contenido del otro lado, generando ciclo de escalada Arquitectura de redes sociales (algoritmos de «recomendación de contenido opuesto») amplifica polarización

    Limitaciones Importantes del Estudio

    Exclusión de Retweets: Investigadores excluyeron retweets (contenido compartido por otros), lo que supone exclusión de ~60-70% de comunicación política real. La mayoría de amplificación extremista ocurre mediante retweets y compartición, no mediante tweets originales. Esto subestima dramáticamente rol de viralidad extremista.

    Suposición de Identidad Única: Asumieron que cada cuenta = una persona, ignorando fact de que cuentas botificadas, gestionadas colectivamente, y operadas por múltiples individuos son comunes en campañas de radicalización. Dato no auditado compromete validez.

    Falta de Variables Demográficas: No se analizó edad, género, geolocalización, estatus socioeconómico. Estos factores son críticos; radicalización varía significativamente por género (hombres más propensos a violencia física) y edad (menores de 35 años más vulnerables).

    Falta de Análisis Longitudinal: Estudio fue transversal (snapshot temporal). No muestra cómo individuos evolucionan desde moderados a extremistas. Seguimiento longitudinal sería más informativo sobre mecanismos de radicalización.

    Mecanismos Tecnológicos: Cómo Redes Sociales Radicalizan
    Mecanismo 1: Algoritmos de Recomendación Basados en Engagement

    El Problema Core: Plataformas (Facebook, YouTube, Twitter, TikTok) utilizan algoritmos que maximizan «engagement» (tiempo en plataforma, clics, comentarios). Contenido que genera más emoción (particularmente ira, miedo, indignación moral) tiende a generar más engagement que contenido moderado o equilibrado.

    Lógica del Algoritmo: Sistema aprende que contenido extremista = alto engagement. Resultado: algoritmo progressivamente recomienda más contenido extremista a usuarios que interactúan con él. Es sistema de «realimentación» donde extremismo es constantemente amplificado.

    Evidencia Empírica: Investigadores de Meta (Facebook/Instagram) en 2021 revelaron mediante documentos internos (Facebook Papers) que algoritmos de recomendación amplificaban contenido divisivo y polarizador porque generaba máximo engagement. Meta sabía esto e ignoró el problema por rentabilidad.

    Efecto Cascada: Usuario que comienza viendo contenido moderadamente conservador es expuesto progresivamente a contenido más extremo, luego a contenido radicalizador, finalmente a inspiración para violencia. Cada paso es «recomendación» del algoritmo basada en engagement previo.

    Mecanismo 2: Echo Chambers y Homofilia Digital

    Definición: Echo chamber es fenómeno donde usuario es expuesto primariamente a información y perspectivas que alinean con creencias pre-existentes. En redes sociales, ocurre a través de algoritmos que priorizan contenido similar a lo que usuario ya consume, amigos que comparten ideología similar, y grupos/comunidades auto-seleccionados.

    Homofilia Digital: Principio de «similitud atrae similitud» se amplifica en redes sociales. Usuario liberal es expuesto a más liberales, conservador a más conservadores. Sin exposición a perspectivas alternativas o moderadoras, usuario progresivamente adopta posiciones más extremas dentro del grupo ideológico.

    Falta de Fricción: A diferencia de vida real donde usuario interactúa con gente diverse, redes sociales permiten construcción de entorno totalmente homogéneo. No hay «amigas conservadoras que moderan tu perspectiva liberal»; hay solo feed de perspectivas radicales similares a tuya.

    Consecuencia de Grupo: Fenómeno psicológico de «group polarization» donde grupos homogéneos adoptan progresivamente posiciones más extremas que cualquier miembro individual. En redes sociales, esto ocurre a velocidad y escala sin precedente.

    Mecanismo 3: Desinhibición y Anonimato

    El Efecto de Disinhibición Online: Investigación en psicología online demuestra que usuarios, especialmente aquellos con anonimato o pseudoanonimato, expresan opiniones significativamente más extremas, violentas, o discriminatorias en línea que dirían cara-a-cara.

    Ausencia de Consecuencias Sociales Inmediatas: En vida real, expresar odio resulta en reacciones sociales negativas inmediatas (disgusto de otros, confrontación, exclusión). En línea, no hay consecuencias corporales o sociales directas. Usuario puede expresar sentimientos extremos sin fricción social que normalmente moderaría comportamiento.

    Anonymity Paradox: Aunque algunas plataformas requieren identidad verificada (LinkedIn, Facebook), muchas permiten pseudoanonimato (Twitter, 4chan, Reddit). Esto crea espacio donde usuarios comparten fantasías violentas, planes de ataque, ideas que nunca expresarían públicamente.

    Comunidad de Soporte Pseudo-Anónima: Grupo de personas pseudoanónimas comparten ideas extremas, se validan mutuamente, y colectivamente reducen inhibiciones individuales. Dinámicas grupal amplifica lo que cualquier individuo de manera aislada encontraría inaceptable.

    Mecanismo 4: Operaciones Coordenadas (Botnets, Campañas Organizadas)

    Amplificación Sintética: Actores políticos, extremistas organizados, y entidades estatales utilizan botnets (redes de cuentas automatizadas) para amplificar contenido extremista o radicalizador. Un post puede ser artificialmente «viralizado» a través de cientos o miles de retweets simultáneos de bots, creando ilusión de apoyo masivo.

    Ilusión de Consenso: Cuando usuario ve que «millones» están compartiendo narrativa extremista, es influenciado por efecto psicológico de «prueba social»: «Si millones lo creen, debe ser verdad.» En realidad, amplificación es mayormente sintética.

    Orquestación Estatal: Agencias de inteligencia (rusa IRA, china, etc.) utilizan redes de botnets para amplificar contenido radicalizador, polarizan sociedad, y eventualmente incitan violencia. Esto es forma sofisticada de «guerra híbrida» donde redes sociales son arma de poder estatal.

    Extremismo Organizado: Organizaciones supremacistas blancas, terroristas yihadistas, y otros grupos extremistas utilizan redes sociales como herramienta de reclutamiento coordinado. Campañas sistemáticas target audiencias específicas, radicalizan progresivamente, luego «gradúan» miembros a células operativas.

    Mecanismo 5: Viralidad de Contenido Extremista

    Velocidad de Propagación: Contenido extremista se propaga 4-8x más rápido que contenido moderado en Twitter según investigaciones de MIT. Ira, miedo, indignación moral generan más engagement y compartición que consenso racional.

    Memes y Código Extremista: Extremistas utilizan memes, símbolos, y lenguaje codificado que facilita propagación. Contenido que puede parecer bromista o absurdo a audiencia mainstream es entendido como llamado a acción dentro de comunidades extremistas.

    Gamificación de Radicalismo: Comunidades extremistas, particularmente en 4chan, 8kun, y Reddit, utilizan gamificación: «upvotes,» «achievements,» «ranks» para participantes que comparten contenido más extremo. Esto crea incentivo psicológico para escalada de extremismo.

    Generación de Contenido Viral Intencional: Extremistas deliberadamente crean contenido diseñado para ser viralizado, sabiendo que amplificación exponencial resultará en exposición a millones. Objetivo es «normalizar» ideología extremista a través de masiva exposición.

    Mecanismo 6: Mercadotecnia Política y Manipulación de Emociones

    Target Emotional Appeals: Campañas políticas, particularmente las que explotan divisiones, utilizan redes sociales para dirigir mensajes emotivos a audiencias específicas. Ira, miedo, resentimiento son emociones particularmente efectivas para movilización política.

    Microtargeting: Utilizando data granular (edad, género, ubicación, intereses, comportamiento online), campañas pueden dirigir mensaje específicamente a individuos susceptibles. Un usuario conservador recibe mensajes que amplifican ira contra inmigración; un usuario liberal recibe mensajes que amplifican miedo a fascismo. Ambos son más propensos a adoptar posiciones extremas.

    Caso Cambridge Analytica: Empresa de consultoría política utilizó datos de Facebook para micro-target a voters durante campañas de 2016. Técnica fue particularmente efectiva en amplificación de contenido divisivo y radicalizador. Escándalo revelado en 2018 mostró escala de manipulación.

    Resonancia Emocional Premeditada: Campañas políticas explícitamente buscan mensajes que generen máximo engagement (ira, miedo, indignación), no precisamente mensajes que sean verdaderos o constructivos. Esto amplifica radicalismo como efecto secundario de lógica de engagement.

    Casos de Estudio: Cuando Redes Sociales Inspiraron Violencia

    Masacre de Christchurch (2019)

    Atacante Brenton Tarrant fue radicalizador en línea, participó en comunidades extremistas online, consumió contenido radicalizador en múltiples plataformas. Antes de ataque, publicó «manifiesto» en 8kun detallando ideología extremista. Fue directamente inspirador de violencia: ataque resultó en 51 muertos.

    Ataques de Pittsburgh (2018)

    Atacante Robert Bowers era usuario activo de Gab (red social extremista), participaba en comunidades antisemitas, consumía contenido dehumanizador. Antes de ataque a sinagoga, publicó mensaje extremista en Gab. Murieron 11 personas. Gab fue infraestructura explícita de radicalizacion.

    Atentados de Barcelona (2017)

    Red terrorista ISIS utilizó Telegram, WhatsApp, y otras plataformas para coordinar células, compartir materiales de entrenamiento, y inspirar violencia. Mensaje fue «usa tácticas simples (atropellos, cuchillos) y coordina a través de redes sociales.» Resultado: múltiples ataques coordinados.

    Insurrección del 6 de Enero (2021 EE.UU.)

    Facebook, Twitter, y YouTube fueron infraestructura primaria para planificación y coordinación de insurrección. Grupos extremistas utilizaron plataformas para difundir desinformación sobre elecciones, organizar transporte, coordinar violencia. Ataque resultó en muertes y daño democrático existencial.

    Patrón Común en Todos los Casos

    En cada caso de violencia extremista reciente, hay rastro digital en redes sociales. No es coincidencia; es arquitectura de redes sociales como facilitador de radicalización. Plataformas proporcionan: comunidad, validación, ideología, inspiración, coordinación. Sin acceso a redes sociales, es probable que radicalización hubiera sido significativamente más lenta y violencia hubiera sido prevenida en muchos casos.

    Dinámicas Diferenciales: Género, Edad, Ideología
    Grupo Demográfico Susceptibilidad a Radicalización Forma de Expresión en Redes Riesgo de Violencia Física
    Hombres Jóvenes (15-35) Extremadamente alta; pico de vulnerabilidad Violenta, dehumanizadora, directas llamadas a acción Muy alto; mayoría de ataques perpetrados por este grupo
    Mujeres Jóvenes (15-35) Alta pero diferentes mecanismos Frecuentemente más «académica,» ideológica; menos directamente violenta Moderado a alto; tradicionalmente menos perpetradores pero participan en apoyo, reclutamiento
    Adultos Medios (35-55) Moderada; susceptible a desinformación política Frecuentemente compartición de memes, contenido divisivo sin verificación Bajo a moderado; menos probable de perpetrar pero pueden financiar o apoyar
    Adultos Mayores (55+) Variable; menos alfabetismo digital reduce exposición pero variable por plataforma Compartición de desinformación, contenido polarizador Bajo; menos probable de violencia directa pero importante en políticas electorales
    Extremistas Ideológicos Organizados Altamente susceptibles a coordinación; redes sociales es herramienta de organización Altamente coordinada, códigos, memes compartidos, materialidad de entrenamiento Extremadamente alto; planeado, organizado, impacto masivo
    Responsabilidad Corporativa: ¿Saben las Plataformas?

    Pregunta crítica: ¿Plataformas de redes sociales desconocen rol de sus sistemas en radicalizacion? O ¿saben pero ignoran por rentabilidad?

    Evidencia de Conocimiento Corporativo

    Facebook Papers (2021): Documentos internos de Meta revelaron que ejecutivos sabían que algoritmos amplificaban contenido divisivo y que «engagement» era maximizado a través de polarización. Sabían que esta polarización estaba contribuyendo a fenómenos perjudiciales (depresión en adolescentes, polarización política, radicalizacion). Decidieron no cambiar prácticas por preocupación de que reducción de engagement resultaría en pérdida de profit.

    Whistleblower Frances Haugen (2021): Exingeniera de Facebook testified ante Congreso de EE.UU. que Meta priorizó profit sobre seguridad, sabía de daños causados por algoritmos, y deliberadamente ignoró problemas. Esto fue testimonio de insider, no especulación.

    Google/YouTube Inacción: Investigaciones documentan que YouTube algoritmos recomiendan sistemáticamente contenido cada vez más extremo. Aunque Google dispone de recursos para cambiar algoritmos, no lo hace porque extremismo genera engagement/profit.

    Respuestas Existentes y Su Insuficiencia
    Respuesta 1: Moderación de Contenido Manual

    Qué es: Plataformas emplean moderadores humanos que revisan contenido reportado, eliminan lo que viola políticas (violencia explícita, terrorismo, odio). Facebook, por ejemplo, empleaba ~15.000 moderadores a nivel global.

    Por qué es insuficiente: Volumen es imposible de gestionar. Facebook ~500 millones de posts diarios. Incluso con 15.000 moderadores, cobertura es minúscula. Además, contenido radicalizador es frecuentemente «evadidor»: no viola explícitamente políticas pero es claramente radicalizador. Requiere comprensión de contexto que moderadores no poseen.

    Daño de Moderadores: Exponer trabajadores humanos a contenido de odio y violencia extrema todos los días resulta en TEPT, depresión, burnout en moderadores. Muchos demandaron a Facebook por falta de apoyo psicológico.

    Respuesta 2: Moderación Algorítmica Automática

    Qué es: Sistemas de machine learning que detectan automáticamente contenido violento, odio, etc. y lo eliminan o desamplifican.

    Limitaciones Técnicas: Algoritmos de detección tienen alta tasa de falsos positivos (marcar contenido legítimo como violento) y falsos negativos (permitir contenido extremista que viola políticas). Particularmente difícil es detectar «dog whistles» (lenguaje codificado que solo miembros de comunidad extremista entienden).

    Insuficiencia de Escala: Incluso con automatización, amplificación de contenido extremista a través de retweets, compartición, etc. es más rápida que detección. Contenido puede viralizar a millones antes de ser detectado.

    Respuesta 3: Fact-Checking y Desinformación

    Qué es: Plataformas asocian con fact-checkers externos para etiquetar información falsa, agregar contexto, o reducir amplificación de desinformación.

    Problema Core: Fact-checking es respuesta a «falsedad de datos,» no a «radicalismo emocional.» Contenido extremista frecuentemente no es «falso» en sentido factual; es simplemente inflamatorio, dehumanizador, radicalizador. Etiqueta de «fact-check» no reduce radicalización.

    Backfire Effect: A veces, etiquetar contenido como «falso» amplifica creencia en él (psychological reactance). Usuarios desconfían de «fact-checkers» como «censura de la verdad.»

    Respuesta 4: Cambios de Algoritmo (Insuficientes y Selectivos)

    Qué es: Plataformas implementan cambios menores en algoritmos (ejemplo: reducir amplificación de contenido «divisivo,» priorizar «conexiones significativas») supuestamente para reducir radicalización.

    Realidad: Cambios son superficiales, frecuentemente anunciados post-crisis (después de ataque terrorista, muerte), e implementados de manera que no reduce significativamente profit/engagement. Meta anunció cambio de algoritmo tras Facebook Papers, pero investigaciones mostran que cambio tuvo impacto mínimo en amplificación de contenido radicalizador.

    Preguntas Frecuentes: Respondiendo Interrogantes Comunes

    ¿Es la libertad de expresión violada si se modera contenido extremista?

    No. Libertad de expresión, en sentido constitucional en democracias, generalmente protege contra censura gubernamental, no contra moderación privada por plataformas. Además, libertad de expresión nunca ha incluido «derecho a incitar violencia.» Contenido que directamente incita violencia (bomb-making, «go kill [group]») puede ser legalmente prohibido sin violar libertad fundamental.

    ¿No son simplemente usuarios radicalizados sin que sea culpa de la plataforma?

    Parcialmente cierto, pero incompleto. Sí, usuarios tienen agency y responsabilidad. Sin embargo, plataformas tienen arquitectura que activamente amplifica, incentiva, y facilita radicalizacion. Es como pregunta: «¿Es culpa de alcohólico que se emborracha o culpa de bar que le sirve?» Ambos tienen responsabilidad. El hecho de que bar deliberadamente usa tácticas para venderle más alcohol lo hace más culpable.

    ¿Alternativas descentralizadas (Mastodon, Bluesky) resolverían el problema?

    Parcialmente. Plataformas descentralizadas tienen menos incentivo de engagement-maximization que plataformas de profit. Sin embargo, también tienen menos recursos para moderación, menos capacidad técnica para detectar radicalismo coordinado, e históricamente han sido colonizadas rápidamente por extremistas cuando se vuelven populares. No es solución universal.

    ¿Puede tecnología resolver el problema que tecnología creó?

    Potencialmente pero no automáticamente. Cambios algoritímicos inteligentes, herramientas de detección, y sistemas de resiliencia pueden ayudar. Pero core issue es incentivo económico: plataformas ganan dinero de engagement, extremismo genera engagement máximo. Mientras este incentivo permanezca, tecnología sola no resolverá problema.

    ¿Qué rol juega regulación gubernamental?

    Es necesario pero complejo. Regulación puede requerir que plataformas muestren transparencia en algoritmos, implementen cambios específicos de desamplificación de extremismo, enfrentar consecuencias legales si fallan. Unión Europea está implementando regulación (Digital Services Act) que requiere esto. Sin embargo, regulación mal diseñada puede resultar en censura excesiva o favorecer a gobiernos autoritarios.

    ¿Por qué es tan difícil legislar sobre esto?

    Complejidad técnica: legisladores frecuentemente no entienden cómo funcionan algoritmos. Poder corporativo: plataformas tienen más poder político que ciudadanos, pueden bloquear/diluir regulación. Libertad de expresión: equilibrar restricción de radicalizacion con protección de discurso legítimo es difícil jurídicamente. Globalidad: contenido es global pero regulación es nacional; coordinar es difícil.

    Propuestas de Intervención Basadas en Evidencia
    1. Transparencia Algorítmica Obligatoria: Legislación que requiera que plataformas divulguen públicamente cómo funcionan algoritmos de recomendación. Científicos independientes deben poder auditar sistemas. Actualmente, algoritmos son cajas negras controladas completamente por corporaciones.
    2. Desamplificación Selectiva de Contenido Radicalizador: En lugar de eliminación binaria (on/off), sistemas pueden reducir amplificación de contenido que muestra señales de radicalismo (dehumanización, llamadas a violencia, incitación) sin eliminarlo completamente. Requiere cambio de incentivo: priorizar seguridad sobre engagement.
    3. Cambio de Modelo Económico: Transición de modelo basado en «maximum engagement = maximum profit» a modelo basado en «engagement responsable.» Esto podría significar: pago por suscripción en lugar de publicidad, financiamiento público en lugar de privado, cooperativas de usuarios en lugar de corporaciones.
    4. Educación Digital de Usuarios: Programas de alfabetismo digital que enseñen a usuarios: reconocer técnicas de manipulación emocional, identificar echo chambers, verificar información, entender cómo funcionan algoritmos. Esto incrementa resiliencia a radicalización.
    5. Intervención en Grupos de Alto Riesgo: Identificación de comunidades online que muestran señales de radicalización (violencia en lenguaje, incitación a acción, dehumanización de outgroups) e intervención preventiva. Puede incluir: desamplifícación, ofrenda de contenido alternativo, contact con servicios de apoyo psicológico.
    6. Investigación Independiente y Vigilancia: Fondos para que académicos y organizaciones independientes estudien radicalización online, monitoreen tendencias, y publiquen hallazgos. Actualmente, investigación es limitada por falta de acceso a datos de plataformas.
    7. Responsabilidad Legal de Plataformas: Legislación que establezca que plataformas pueden ser legalmente responsables si su arquitectura facilita radicalizacion que resulta en violencia. Esto crearía incentivo para cambio real de sistemas en lugar de respuestas cosmética.
    8. Apoyo a Víctimas de Radicalización: Programas que ayuden a individuos que han sido radicalizados a desengancharse de ideología extremista. Incluye terapia psicológica, reintegración social, alternativas económicas. De-radicalizacion es posible pero requiere recursos.

    Reflexión Final: La Cuestión de Responsabilidad

    Cuando un ataque terrorista ocurre y se revela que atacante fue radicalizador en redes sociales, plataformas que facilitaron radicalizacion frecuentemente evaden responsabilidad esconderse detrás de «libertad de expresión,» «no sabíamos,» o «fue culpa del individuo.» Esto es evasión de responsabilidad.

    La realidad es: plataformas conocen exactamente cómo sus sistemas funcionan, saben que amplificación de contenido extremista ocurre, y deliberadamente ignoran problema por rentabilidad. Esto es no negligencia; es elección activa de profit sobre seguridad. Responsabilidad corporativa y legal debe reflejar esta realidad.

    Conclusión: Redes Sociales como Infraestructura de Radicalización

    A la pregunta «¿Sirven las redes sociales al radicalismo?», la respuesta es inequívocamente . No son simplemente «herramientas neutrales»; son sistemas diseñados con arquitectura y algoritmos que activamente amplifican, incentivan, y facilitan radicalizacion.

    Mecanismos son bien entendidos: algoritmos de engagement maximizan contenido emotivo (ira, miedo) que es típicamente radicalizador. Echo chambers refuerzan ideología extrema sin exposición a perspectivas moderadoras. Desinhibición digital permite expresión de violencia que nunca ocurriría off-line. Operaciones coordinadas amplificar sintéticamente contenido extremista. Viralidad preferentemente beneficia a extremismo sobre moderación.

    Casos de estudio demuestran conexiones directas: Christchurch, Pittsburgh, Barcelona, insurrección de EE.UU. Todos utilizaron redes sociales como infraestructura de radicalizacion y coordinación. Sin acceso a plataformas, es probable que violencia hubiera sido prevenida en múltiples casos.

    Responsabilidad corporativa es clara: Meta, Google, Twitter saben del problema y eligen ignorarlo. Regulación es necesaria pero insuficiente. Cambio fundamental de modelos económicos, algoritmos, e incentivos es requerido.

    La pregunta no es más si redes sociales sirven al radicalismo. Es: ¿Cuándo la sociedad demandará cambio sistemático? ¿O permitiremos que redes sociales continúen siendo armas de radicalización sin consecuencia?

    Referencias Clave y Fuentes:
    – Princeton, Cornell, Indiana, Qatar University (2016). «Twitter analysis of extremism and political polarization.» EPJ Data Science.
    – Meta (Facebook Papers) (2021). Internal documents revealing knowledge of algorithmic amplification of divisive content.
    – Haugen, Frances (2021). Whistleblower testimony before U.S. Congress on Meta prioritizing profit over safety.
    – Investigaciones de MIT sobre viralidad diferencial de contenido extremista vs. moderado.
    – Pew Research: «Extremism and social media: pathways to radicalization.»
    – European Union Digital Services Act (2023): Regulatory framework for platform accountability.
    – Casos forenses de atentados terroristas (Christchurch, Pittsburgh, Barcelona): análisis de rol de redes sociales.


  • Racismo, ¿Puede la persona ser delatada por la amígdala?

    Racismo, ¿Puede la persona ser delatada por la amígdala?

    El racismo es la posición que supone sentirse identificado con una raza, normalmente la propia, considerando al resto de las mismas “inferiores” o cuanto menos “diferentes”

    Sobre el Racismo

    Basado en ese racismo se han “justificado” todo tipo de acciones más o menos violento, basado en el sentimiento de grupo racial otorgado por el color de la piel.Si bien se puede considerar como “instintivo”, se trata de un aspecto cultural y aprendido tal y como lo muestra los lugares con un ambiente multicultural, con mezclas de razas, donde los pequeños crecen viendo “normal” cualquier raza o mestizaje de la misma. Muchos son los países que han tenido que “aprender” a aceptar a personas de otras razas, ya sea por una circunstancia u otra, se han convertido en ciudadanos más y por tanto, con el tiempo y la educación se debería de llegar a verlos como uno más.
    Así los pueblos eminentemente formados o receptores de emigrantes, son los que más acostumbrado a esta convivencia multicultural, a pesar de ello, entre sus miembros siempre hay quien siente que su raza o color de piel le otorga una especie de estatus “superior” al resto.Algo difícil de evaluar, ya que en estas culturas está “mal visto” mostrarse con sentimientos de racismo, por lo que se trata de disimular por lo menos para mantener las apariencias, pero  ¿Puede la amígdala delatar el racismo?


    https://youtu.be/oej8Ngng2-k

    Vídeo recomendado: Existe el Racismo y la Discriminación

    Cerebro y racismo

    Esto es lo que ha tratado de averiguarse con una investigación realizada conjuntamente desde la Universidad de Nueva York, el Instituto Tecnológico de Massachusetts y la Universidad de Yale cuyos resultados han sido publicados en el 2018 en la revista científica Journal of Cognitive Neuroscience.
    Se llevaron a cabo dos estudios, en el primer estudio participaron catorce adultos de los cuales siete eran mujeres, mientras que en el segundo estudio participaron trece adultos de los cuales seis eran mujeres, todos ellos, tanto los hombres como las mujeres eran de raza blanca.
    En el primer estudio se presentaron rostros de personas blancas y negras sin ningún tipo de emoción, y todas desconocidas para los participantes; en el segundo estudio se presentaron rostros de pe personajes conocidos, figuras destacadas del deporte, la música o el cine tanto negros como blancos.
    A todos los participantes se les realizó un medida de la actividad neuronal mediante resonancia magnética funcional.
    Igualmente se evaluó la respuesta de sobresalto ante el estímulo presentado a través de la evaluación del parpadeo empleando para ello la electromiografía.
    Además se les hizo pasar por un procedimiento de evaluación de las actitudes implícitas mediante el Implicit Association Test (IAT).


    Amígdala y racismo

    Los resultados muestran una sobreactivación de la amígdala ante la presencia de imágenes de rostros de personas del “color contrario” al del participante, no mostrándose esta sobre activación cuando las imágenes de rostros contemplados se correspondían con la raza del participante.
    Esto no quiere decir que ante una cara “conocida” o de la misma raza, no vaya a reaccionar, si no que la reacción “emocional” provocada es superior cuando la imagen de la persona es de una raza diferente al del participante.
    A pesar de que en el reconcomiendo del rostro participen otras regiones cerebrales, únicamente resultó significativa la activación de la amígdala en función de la raza de los estímulos presentados.
    Igualmente se obtuvieron correlaciones positivas entre las evaluaciones de la resonancia magnética funcional, el IAT y la electromiografía, por tanto el uso de cualquiera de los tres sería válido para la detección del racismo.
    Como novedad en los resultados, es que la familiaridad de los personajes, relacionados con aspectos positivos, ya que eran “famosos” en su ámbito, muestra una reducción del racismo en la evaluación, es decir, las experiencias positivas con una raza hace que estas se vean menos “diferentes” que si no se tienen dichas experiencias.
    Entre ellas limitaciones del estudio está el analizar únicamente la reacción ante imágenes de cara y no de cuerpo entero, igualmente no se separaron a los participantes en función de si residían en un ambiente o no multicultural.
    Igualmente no se realizó el estudio con personas negra para que visionasen y evaluasen rostros de personas blancas o negras para conocer si el racismo también se da en esta población.
    A pesar de lo anterior, y después de décadas luchando contra el racismo en un país eminentemente de inmigrantes como es EE.UU. todavía perdura entre su población este sentimiento “inconfesable” que está en la base de las conductas discriminatorias.
    Así, aunque la persona no sea consciente, le será más fácil ayudar e incluso contratar a otro de su misma raza antes que a uno de otra raza.
    Algo que parece “lógico” entre las minorías como forma de mantenerse como “pueblo” y de dar oportunidades que en otras circunstancias sería difícil, pero que va en detrimento de la integración, ya que cuanto más se fortaleza el sentimiento de grupo de una comunidad, menos posibilidades de que esta se abra a nuevos miembros.
    Además la posibilidad de conocer que nuestro cerebro responde la “verdad” frente al convencionalismo social permite comprender hasta qué punto son efectivas o no las campañas anti-racismo, y en caso de no funcionar estas, habría que pensar cómo mejorarlas para que poco a poco se fuese diluyendo este racismo.

  • Dime con quien andas…, y te diré quién eres

    Dime con quien andas…, y te diré quién eres

    Desde la etapa etapa de la preadolescencia, el individuo toma a sus semejantes como punto de referencia y de construcción de su propia identidad, dejando los modelos que hasta ese momento le han servido, tales como los padres, profesores u otras figuras de autoridad, para ser sus compañeros de curso o el grupo de pandilla al que pertenece dicho referente.
    La moral lo que es adecuado, bueno y conveniente, que hasta ahora ha aprendido en la escuela o en la casa, ahora se pone en tela de juicio, siendo lo conveniente aquello que entre todos los de la “pandilla” deciden.
    La adhesión y pertenencia al grupo es fundamental en ésta etapa, definiéndose las personas por los colores, forma de pensar y vestir de su equipo de fútbol o grupo musical favorito.
    Los demás se convierten en el espejo donde se mira uno, y adquiere su propia identidad, siendo más o menos que el resto dentro del grupo, así cada uno podrá destacar en uno u otro aspecto ya sea por exceso o defecto en comparación con los demás, exhibiendo dentro de ese ambiente de confianza distintos aspectos, explorando sus habilidades y capacidades hasta encontrar su papel, “el más chistoso”, “el atrevido”, “el serio”…, todo lo cual le permite tomar conciencia de sí mismo, como persona única.
    Es precisamente en ésta época donde se van a “activar” una serie de cambios a todos los niveles, en el organismo del adolescente debido a la expresión secundaria de su sexualidad, transformando y moldeando los cuerpos hasta ahora casi indiferenciados de niños y niñas, en cuerpos de hombres y mujeres, totalmente distintos, mostrándose todos los caracteres secundarios propios de su sexo.
    Entre los cambios más evidentes desde el exterior, al hombre le aparecerá la barba y cambiará su voz hacia tonalidades más graves, y en la mujer le crecerá los pechos.

    A nivel neuronal va a producirse lo que se denomina una tormenta hormonal, donde van a afluir al torrente sanguíneo gran cantidad de neurohormonas de forma “descontrolada”, lo que va a provocar cambios de humor constantes, experiencias y sensaciones nuevas del organismo, por ejemplo, en el caso de la niña que se convierte en mujer, va a tener la primera regla o menarquía y a partir de ahí va periódicamente a experimentar cambios hormonales cíclicos asociados a su capacidad de concebir, lo que va a cambiar su concepción sobre sí misma y sobre los demás.
    Los grupo de iguales, compañeros y pandillas, van a ir aumentando en miembros, incorporando a las “novias y novios”, y el adolescente va a iniciar una nueva realidad como pareja, en donde le queda todo un mundo por explorar en su camino por convertirse en adulto.
    Pero también es la etapa, en donde dentro de los grupos, se ríen de las “gracias” de sus miembros, actuaciones absurdas, transgresoras, que a veces incluso pueden ser peligrosas, sin que cumpla ninguna función, más allá de la de divertirse uno y a los demás.
    Es el momento de explorar los límites de la sociedad, poniendo en tela de juicio su utilidad, y en algunos casos provocando actuaciones amorales o asociales, y todo ello para sentirse “a gusto” dentro del grupo de iguales, los cuales pueden fomentar o “reprimir” dichos comportamientos, moldeando así la identidad de sus miembros.
    A pesar de ésta “explosión” de individualidad, el haber ofrecido un ambiente familiar estable, con un buen ejemplo de vida, con unas normas de conducta y de comportamiento adecuado, va a hacer que a la hora de estar con “sus amigos” la persona sea “más juiciosa” y pueda anteponer sus propios valores a los desatinos del momento.
    Es el momento de descubrir los propios límites, pero no sólo físicos sino también intelectuales, por lo que bien orientado es una etapa enriquecedora para el adolescente, en la que puede formarse como un hombre o mujer de provecho para sí mismo y para la sociedad en la que se desarrolla.
    La opinión del resto del grupo, más o menos fundamentada, se convierte en criterio “objetivo” sobre nuestro comportamiento, asumiendo como “normal” hábitos o conductas reprobables y reprobadas fuera del ámbito del grupo de amigos.



    Desarrollando el modelo de Erikson se puede hablar de dos “motores” de la identidad que va a ser la exploración y de compromiso. El primero hace referencia al tiempo y esfuerzo dedicado para explorar nuevas alternativas en su búsqueda de una identidad, tratando de encontrar “su camino”; mientras que el compromiso hace referencia a una inversión en una decisión en su vida, ya sea en cuestión de género, pertenencia a grupo, valores y propias creencias, etc…
    La combinación de un mayor o menor grado de exploración y compromiso, va a generar distintos tipos de identidad en la adolescencia:
    – Identidad difusa, donde todavía existe escasa exploración y nulo compromiso.
    – Identidad hipotecada, que es cuando el adolescente no ha pasado por la crisis de identidad propia de su edad, con nula exploración y en cambio un rígido compromiso con aquello que le han estado educando desde pequeño en el ámbito familiar fundamentalmente.
    – Identidad moratoria, en donde se exhibe gran cantidad de conductas y comportamientos en busca de la propia identidad, primando la exploración y con un escaso nivel de compromiso.
    – Identidad alcanzada, que se logra una vez finalizada la etapa de identidad moratoria, donde se ha explorado activamente y tras ello se asumen una serie de decisiones sobre su vida y su futuro con los que se compromete, conformando así el paso necesario para la vida adulta.
    Dentro del grupo de iguales el adolescente va a pasar por un proceso de asunción de valores propios (intragrupo) exaltando sus bondades frente a los otros grupos (exogrupo), lo que va a acentuar el sentimiento de pertenencia al mismo, lo que en algunos casos va a generar el germen de la discriminación, xenofobia o el racismo; en donde el individuo va a verse abocado a una identidad debido a la presión grupal, que en otras circunstancias no asumiría como propias.
    Cobrando mayor relevancia si puede el dicho popular, “Dime con quien andas y te diré quien eres”, pues aunque pensemos que el grupo de amigos tiene una mínima o escasa incidencia, ésto va a determinar de forma significativa la identidad de la persona en “construcción”, que le va a acompañar y guiar el resto de su vida.

    El final de la adolescencia y el paso a la edad adulta suele asociarse a la asunción de responsabilidad en su vida, al adquirir una casa donde vivir fuera del ámbito familiar, tener un trabajo en el que poder desarrollarse y con el que mantenerse económicamente e incluso estar en pareja, con la que proyectar y planear formar una familia.

    Los últimos avatares económicos y cambios sociales, en que los adolescente permanecen en el ámbito familiar más allá de la treintena, sometidos y sostenidos por los progenitores, han hecho replantearse a los psicológicos la definición del adolescente que se solía superar con la mayoría de edad, extendiéndolo ahora hasta la independencia económica y de convivencia familiar.

  • Pertenencia Social desde la Infancia

    Pertenencia Social desde la Infancia


    Los valores se transmiten a través de los grupos de pertenencia, aspecto que se va aprendiendo desde la más tierna infancia a través de la imitación.

    La Pertenencia Social

    Uno de los aspectos más importantes de la configuración de la persona es la pertenencia al grupo, con el que nos identificamos en valores y creencias. Aspecto que vamos aprendiendo desde pequeños y que nos sirve para formarnos como individuos dentro de la sociedad en donde crecemos.
    Éstos aprendizaje se ponen en evidencia cuando nos trasladamos a otro lugar, en donde rápidamente se comprobará las diferencias entre los que hasta ahora se consideraba «normal» y «natural», y en ocasiones puede hasta «chocar» con conductas y tradiciones.
    Dentro de la sociedad existen distintos grupos de pertenencia en el que cada individuo se involucra, como por ejemplo en el grupo de clase, en el caso de los estudiantes, el grupo de compañeros, en el trabajo,… pero también otros en los que se eligen pertenecer, como a un grupo religioso, de lectura, peñas o asociaciones.
    Aunque cuando pensamos en grupos de convivencia también hemos de incluir a la familia como un factor destacado en la formación tanto de la personalidad como de los valores y creencias que de pequeño se van a ir interiorizando y que va a «marcar» a la persona, ya que van a ser los pilares en los que se va a fundamentar los nuevos aprendizajes y experiencias.


    https://youtu.be/-hDCCaKPFZk

    Identidad de grupo

    En cada uno de estos grupos se establecen una serie de normas «de convivencia» por escrita o transmitido de palabra, pero también se transmiten valores y expectativas, en donde se ensalan estos en el endogrupo, sobre los del resto (exogrupo), minimizando y hasta a veces «ridiculizando» los valores y tradiciones de los otros grupos, que exacerbando estas comparaciones puede conformar pensamientos y actitudes de prejuicio, discriminación e incluso el racismo.
    Una de las intervenciones más efectivas en éste aspecto, es precisamente el establecer conexiones entre los distintos grupos, aumentando así la visibilidad de las minorías, dándo a conocer valores y actitudes que de otra forma pueden parecer extraños.
    La cultura se transmite a través de las reglas estrictas que se establecen en la sociedad, cuyos comportamientos que los transgreden son sancionados ya sea punitivamente o con pérdida de libertad. Pero no sólo a través de las leyes y normas escritas, sino también mediante tradiciones transmitidas de padres a hijos
    Éstas normas sirven para regular la convivencia, facilitándola y estableciendo los límites, en donde se crece e interioriza ya desde pequeños a través de un proceso tan sencillo como es el de imitación, al menos así lo ha constatado un reciente estudio realizado por la University of Texas of Ausitn (EE.UU.) publicado en Cognition En el que se analizaron el comportamiento de 259 niños entre los 3 y 6 años tras un visionado de distintos vídeos.


    Pertenencia al grupo en la infancia

    A la mitad de los niños se le mostró a un «actor» desempeñando una tarea manual, mientras que a la otra mitad vieron a dos «actores» realizando la misma tarea. Con posterioridad se les preguntó a los pequeños «cómo» se debian de realizar esa tarea, los resultados informan que cuando los pequeños vieron a un sólo actor, consideraban que podía realizarse de esa u otra forma siempre que se realice la tarea, consiguiendo el objetivo deseado
    En cambio los que vieron a dos actores realizando la taera, entendieron que era así «cómo» se debía de hacer, asumiendo que era el comportamiento social adecuado, aún cuando se dificultase alcanzar el objetivo deseado.
    El estudio presenta hallazgo importantes en cuanto a la distinción entre comportamiento dirigido a meta y comportamiento socialmente establecido, ya desde una edad tan temprana como los 3 a 6 años.