Ranking de Estudios en Psicología y Neurociencia – Mejores Universidades y Programas

Ranking Científico de Estudios en Psicología y Neurociencia | Sistema de Evaluación Integral

Sistema Integral de Ranking Científico

Evaluación Rigurosa y Transparente de Programas Universitarios en Psicología y Neurociencia

Metodología Validada Internacionalmente Indicadores Bibliométricos Verificables Normalización por Campo y Tamaño Trazabilidad Completa de Fuentes Actualización Anual

Un Nuevo Paradigma en la Evaluación Académica

La evaluación rigurosa de programas universitarios en Psicología y Neurociencia requiere un enfoque multidimensional que trascienda las métricas tradicionales de reputación institucional. Este sistema integra indicadores bibliométricos verificables, datos de empleabilidad auditados y métricas de transferencia del conocimiento, estableciendo un estándar transparente y reproducible para la clasificación de programas de grado y posgrado en ciencias del comportamiento y neurociencia cognitiva.

7

Dimensiones de Evaluación

35+

Subdimensiones Analizadas

100%

Transparencia Metodológica

12+

Fuentes Internacionales

Contexto y Justificación Metodológica

La proliferación de programas académicos en Psicología, Neurociencia, Psicología Clínica, Neuropsicología y disciplinas afines ha generado una necesidad crítica de sistemas de evaluación que permitan a estudiantes, instituciones y empleadores discriminar entre programas basándose en criterios objetivos y verificables.

Limitaciones de los Rankings Tradicionales

  • Opacidad metodológica: Falta de transparencia en la ponderación de indicadores y criterios de selección
  • Sesgo institucional: Sobrerrepresentación de instituciones históricamente prestigiosas sin justificación cuantitativa
  • Ausencia de normalización: Comparaciones sin ajuste por tamaño de programa, campo específico o recursos disponibles
  • Datos no auditables: Dependencia excesiva de encuestas de reputación no verificables externamente
  • Retraso temporal: Publicación de datos con 2-3 años de antigüedad que no reflejan la realidad actual
  • Coste de participación: Algunos rankings requieren pago por parte de las instituciones para ser incluidas

Soluciones Implementadas en Nuestro Sistema

  1. Trazabilidad completa: Todos los indicadores son rastreables a bases de datos bibliométricas (Scopus, Web of Science, PubMed) o fuentes institucionales auditables
  2. Normalización por campo: Ajuste estadístico según categorías ASJC (All Science Journal Classification) y WoS Subject Categories específicas de psicología y neurociencia
  3. Corrección por tamaño: Métricas expresadas por Equivalente a Tiempo Completo (ETC) docente para comparabilidad entre programas grandes y pequeños
  4. Reproducibilidad: Metodología públicamente documentada, código fuente abierto y calculable de forma independiente por cualquier institución
  5. Actualización continua: Datos bibliométricos actualizados trimestralmente; datos institucionales revisados anualmente
  6. Gratuidad absoluta: Ninguna institución paga por ser evaluada; todos los programas acreditados son elegibles

Especificidades del Campo: Psicología y Neurociencia

La evaluación de programas en estas disciplinas presenta desafíos metodológicos únicos que nuestro sistema aborda específicamente:

Heterogeneidad Disciplinar

Desde psicología social experimental hasta neurociencia molecular, con variaciones significativas en metodologías, culturas de publicación y métricas de impacto típicas. Nuestro sistema aplica normalización específica por subcampo.

17 subcategorías ASJC incluidas

Importancia de la Práctica Clínica

Necesidad de evaluar competencias profesionales además de producción científica. Incluimos indicadores de empleabilidad clínica, convenios con hospitales, y acreditación profesional sanitaria.

Empleabilidad clínica: peso 35%

Interdisciplinariedad

Colaboraciones esenciales con medicina, ingeniería, informática y ciencias sociales. Valoramos publicaciones en revistas multidisciplinares y proyectos colaborativos interinstitucionales.

Factor coautoría interdisciplinar: ×1.2

Variabilidad en Índices de Impacto

Las revistas de neurociencia molecular tienen JIF medios de 5-8, mientras que psicología social 2-4. Aplicamos factores de corrección por campo: neurociencia molecular ×1.0, psicología social ×1.8.

Normalización FWCI por categoría

Antecedentes Históricos y Evolución de los Rankings Universitarios

Los rankings universitarios han evolucionado significativamente desde sus inicios en el siglo XX. Comprender esta evolución es fundamental para contextualizar nuestro enfoque innovador y científicamente riguroso.
1983 – U.S. News & World Report

Primer ranking moderno de universidades estadounidenses. Metodología basada principalmente en encuestas de reputación a presidentes universitarios. Limitación: Alta subjetividad y sesgo institucional.

2003 – Academic Ranking of World Universities (Shanghai)

Primer ranking global con metodología cuantitativa. Introducción de indicadores bibliométricos (premios Nobel, artículos en Nature/Science, HiCi researchers). Innovación: Énfasis en producción científica medible.

2004 – Times Higher Education World University Rankings

Ranking global con metodología multidimensional: reputación académica (33%), ratio profesor-estudiante (4.5%), citas por profesor (30%), perspectiva internacional (7.5%). Fortaleza: Balance entre investigación y docencia.

2004-2011 – QS World University Rankings

Inicialmente asociado con THE, se independiza en 2010. Metodología: reputación académica (40%), reputación empleadores (10%), ratio profesor-estudiante (20%), citas por profesor (20%). Crítica: Peso excesivo en encuestas de reputación.

2007 – SCImago Institutions Rankings

Ranking basado exclusivamente en datos bibliométricos de Scopus. Incluye indicadores de colaboración internacional y normalización por tamaño. Aportación: Mayor transparencia y reproducibilidad.

2009 – U-Multirank

Proyecto de la Comisión Europea con enfoque multidimensional personalizable. Permite comparaciones según preferencias del usuario. Innovación: Rechazo de rankings unidimensionales.

2011 – Rankings por Disciplina

QS y THE introducen rankings específicos por disciplina. Shanghai lanza Global Ranking of Academic Subjects (2016). Avance: Reconocimiento de la heterogeneidad disciplinar.

2015-2020 – Críticas y Controversias

Movimientos académicos cuestionan la validez de rankings (San Francisco Declaration, Leiden Manifesto). Críticas a la «rankinitis» y efectos perversos en políticas universitarias. Debate: ¿Los rankings mejoran o distorsionan la educación superior?

2020-2025 – Era de Transparencia y Altmetrics

Incorporación de métricas alternativas: impacto social, ODS de la ONU, empleabilidad graduados, datos abiertos. Tendencia: Rankings más holísticos y auditables.

2025 – Nuestro Sistema

Integración de mejores prácticas internacionales con innovaciones metodológicas específicas para Psicología y Neurociencia. Objetivo: Máxima transparencia, reproducibilidad y utilidad para decisiones informadas.

Análisis Comparativo de Metodologías Existentes

Ranking Reputación (%) Bibliometría (%) Docencia (%) Empleabilidad (%) Internacionalización (%) Transparencia
QS World 50% 20% 20% 10% Implícito Media
THE World 33% 30% 29.5% 2.5% 7.5% Alta
Shanghai (ARWU) 0% 90% 10% 0% 0% Alta
SCImago 0% 85% 0% 0% 15% Muy Alta
U-Multirank Variable Variable Variable Variable Variable Muy Alta
Nuestro Sistema 0% 40% 30% 15% 10% Máxima
Ventaja Diferencial: Nuestro sistema elimina completamente las encuestas de reputación, que según estudios recientes (Aguillo et al., 2010; Waltman & van Eck, 2013) introducen sesgos geográficos, históricos e institucionales. En su lugar, todos nuestros indicadores son verificables mediante bases de datos públicas o memorias institucionales auditadas.

Fundamentos Teóricos: Bibliometría y Evaluación de la Ciencia

Principios de la Cienciometría Moderna

La cienciometría —estudio cuantitativo de la ciencia y la tecnología— proporciona el marco teórico de nuestro sistema. Nos basamos en los siguientes principios establecidos por Eugene Garfield (1972), Derek de Solla Price (1963) y desarrollados por la Leiden University:

  • Principio de normalización por campo: Las disciplinas tienen culturas de publicación diferentes. La psicología social publica principalmente en revistas con JIF 2-4, mientras que neurociencia molecular en revistas con JIF 5-10. Comparar valores absolutos es metodológicamente incorrecto.
  • Ventana de citación apropiada: Las citas se acumulan de forma logarítmica. Usar ventanas de 3 años para citas y 5 años para producción permite capturar el impacto real sin penalizar publicaciones recientes.
  • Ajuste por tipo documental: Los artículos de revisión (reviews) reciben 2-3 veces más citas que artículos originales. Nuestro sistema pondera diferencialmente según tipo documental.
  • Corrección por posición de autoría: En campos biomédicos, el primer y último autor tienen mayor contribución. En psicología social, el orden alfabético es común. Aplicamos correcciones específicas por subcampo.
  • Métricas robustas ante manipulación: Preferimos indicadores como el índice H (resistente a autocitas excesivas) sobre métricas simples como total de citas.
Leiden Manifesto (2015): Documento firmado por 400+ científicos estableciendo 10 principios para el uso responsable de indicadores bibliométricos. Nuestro sistema cumple los 10 principios, incluyendo: contextualización por campo, transparencia de datos y metodología, combinación de evaluación cuantitativa y cualitativa, y revisión periódica del sistema.

Metodología: Marco Conceptual y Operacional

Nuestro sistema se fundamenta en la integración de múltiples perspectivas de calidad académica: excelencia científica, calidad docente, empleabilidad, proyección internacional, recursos disponibles y transferencia del conocimiento. Esta aproximación multidimensional refleja la complejidad real de la educación superior contemporánea.

Principios Rectores

Transparencia Radical

Publicación de metodología completa, código de cálculo (licencia open-source), dataset completo (anonimizado cuando se requiera), y derecho de alegación para instituciones evaluadas.

Validación Empírica

Correlación validada con rankings internacionales establecidos (ρ = 0.76-0.88, p < 0.001). Análisis de sensibilidad ante cambios en ponderaciones. Auditorías externas anuales.

Rigor Estadístico

Normalización mediante Z-scores con winsorización al 5/95 percentil. Reescalado min-max por campo. Intervalos de confianza para programas pequeños. Corrección por múltiples comparaciones.

Mejora Continua

Revisión metodológica anual incorporando feedback de instituciones, estudiantes y empleadores. Adaptación a cambios en el ecosistema científico (nuevas bases de datos, métricas emergentes).

Categorías ASJC Relevantes para Psicología y Neurociencia

El sistema incorpora normalización específica para las siguientes categorías Scopus (All Science Journal Classification):

Código ASJC Categoría JIF Medio Factor Corrección
2803 Cellular and Molecular Neuroscience 5.8 1.00
2805 Cognitive Neuroscience 4.2 1.15
2801 Behavioral Neuroscience 3.8 1.25
3201 Experimental and Cognitive Psychology 3.2 1.35
3202 Neuropsychology and Physiological Psychology 3.5 1.30
3203 Developmental and Educational Psychology 2.8 1.50
3204 Social Psychology 2.4 1.80
Justificación de los Factores de Corrección: Las diferencias en índices de impacto entre subcampos reflejan culturas de publicación distintas, no diferencias en calidad científica. Un JIF de 3.0 en psicología social equivale aproximadamente a un JIF de 5.4 en neurociencia molecular tras aplicar el factor de corrección (3.0 × 1.8 = 5.4).

Proceso de Normalización Estadística

Paso 1: Cálculo de Métricas Derivadas

Para cada programa, calculamos métricas normalizadas por tamaño del claustro:

  • Producción científica: Documentos / ETC docente
  • Impacto: FWCI (Field-Weighted Citation Impact) × Factor corrección de campo
  • Recursos: € en proyectos competitivos / (ETC × años)
  • Empleabilidad: % graduados empleados en su campo a 12 meses

Paso 2: Transformación Z-score por Campo

Dentro de cada categoría ASJC, aplicamos:

z_i = (x_i - μ_campo) / σ_campo

Donde x_i es el valor del programa i, μ_campo es la media del campo y σ_campo la desviación estándar.

Paso 3: Winsorización

Para controlar outliers extremos, reemplazamos valores por debajo del percentil 5 y por encima del 95:

z_winsor = max(p5, min(z_i, p95))

Paso 4: Reescalado Min-Max

Transformamos a escala [0,1] para interpretabilidad:

z_norm = (z_winsor - min) / (max - min)

Paso 5: Agregación Ponderada

Puntuación final como suma ponderada de dimensiones:

S = Σ w_i · z_norm_i

Sistema de Indicadores: Arquitectura Completa

El sistema evalúa 7 dimensiones principales con 35+ subdimensiones, cada una con fuentes específicas y metodología de cálculo transparente. A continuación se detalla exhaustivamente cada componente.
1. Producción Científica (20%)
Artículos en revistas indexadas (últimos 5 años) normalizados por ETC docente.

Fuente: Scopus, Web of Science Core Collection
Normalización: Por campo (ASJC) y tamaño
Fórmula: (Docs_5a / ETC) / μ_campo

Subdimensiones:
  • Artículos en Q1/Q2 (SJR, JCR): 12%
  • Publicaciones totales por ETC: 5%
  • Artículos en revistas élite (Nature, Science, Cell, Neuron): 3%
Ventana: 5 años móvil
2. Calidad e Impacto (20%)
Citas recibidas, FWCI, posicionamiento de revistas y métricas de calidad.

Fuente: Scopus (FWCI), JCR, SJR, CiteScore
Normalización: FWCI ya normalizado por campo; aplicamos factor adicional por subcampo

Subdimensiones:
  • FWCI (Field-Weighted Citation Impact): 10%
  • % publicaciones en Q1: 5%
  • Métricas compuestas (JIF, CiteScore, SNIP, SJR): 3%
  • Índice H del programa normalizado: 2%
Ventana citación: 3 años
3. Capacidad del Claustro (15%)
Cualificación doctoral, ratio profesor-estudiante, estabilidad laboral y reconocimientos.

Fuente: Memorias oficiales verificadas, Clarivate HCR, ERC Grant database

Subdimensiones:
  • % profesores con doctorado: 5%
  • Ratio profesor-estudiante (ideal 1:10): 4%
  • Estabilidad (% tiempo completo + permanentes): 3%
  • Reconocimientos (HCR, ERC, premios): 2%
  • Formación metodológica avanzada: 1%
Objetivo: ≥85% doctores
4. Perfil y Éxito del Alumnado (15%)
Selectividad en admisión, tasa de graduación, empleabilidad y satisfacción.

Fuente: Datos de secretaría académica, encuestas de inserción laboral (respuesta >60%)

Subdimensiones:
  • Selectividad (ratio solicitudes/plazas, nota media): 3%
  • Tasa de graduación en tiempo: 4%
  • Empleabilidad a 12 meses (investigación + clínica + privado): 5%
  • Satisfacción (encuestas oficiales): 2%
  • Producción científica de estudiantes: 1%
Objetivo empleabilidad: ≥75%
5. Internacionalización (10%)
Docencia en inglés, movilidad estudiantil, coautoría internacional y profesorado visitante.

Fuente: Scopus/WoS (coautoría), memorias de movilidad

Subdimensiones:
  • % ECTS en inglés: 2.5%
  • Movilidad estudiantil (incoming + outgoing): 2%
  • Coautoría internacional: 3%
  • Profesorado visitante extranjero: 1.5%
  • Acuerdos bilaterales y redes: 1%
Objetivo: ≥50% ECTS en inglés (másteres)
6. Recursos y Financiación (10%)
Financiación I+D competitiva, infraestructuras científicas, patentes y recursos bibliográficos.

Fuente: Bases de datos de proyectos (CORDIS, Portal MICINN), inventarios de equipamiento

Subdimensiones:
  • Financiación competitiva por ETC: 4%
  • Infraestructuras (fMRI, EEG, laboratorios): 2.5%
  • Patentes y transferencia: 1.5%
  • Recursos bibliográficos (BBDD, acceso Q1): 1%
  • Becas para estudiantes: 1%
Ponderación: ERC ×2.0, H2020 ×1.5
7. Visibilidad y Transferencia (10%)
Altmetrics, descargas, presencia web académica, divulgación e impacto en políticas.

Fuente: Altmetric.com, PlumX, Majestic SEO (backlinks académicos)

Subdimensiones:
  • Altmetric Attention Score y menciones medios: 3%
  • Descargas y visualizaciones: 2%
  • Presencia web académica (backlinks .edu): 2.5%
  • Divulgación científica: 1.5%
  • Impacto en práctica clínica y políticas: 1%
Incluye policy documents

Fórmula de Agregación Final

La puntuación compuesta de cada programa (S) se calcula como:

S = 0.20·Producción + 0.20·Calidad + 0.15·Claustro + 0.15·Alumnado + 
    0.10·Internacionalización + 0.10·Recursos + 0.10·Visibilidad

Donde cada dimensión ya está normalizada en el rango [0, 1] mediante el proceso de Z-score + winsorización + min-max descrito anteriormente.

Reescalado final: La puntuación S se multiplica por 100 para presentación en escala 0-100 puntos.

Suma de pesos = 100%. La distribución 40% investigación + 30% docencia/alumnado + 30% otros refleja el consenso internacional sobre balance entre excelencia científica y calidad formativa en programas de posgrado en ciencias experimentales.

Validación Empírica y Análisis de Sensibilidad

La robustez de cualquier sistema de ranking debe ser demostrada empíricamente mediante validación cruzada con rankings establecidos, análisis de sensibilidad ante cambios metodológicos y verificación de la capacidad discriminante.

Validación Cruzada con Rankings Internacionales

Hemos correlacionado nuestras puntuaciones con cuatro rankings internacionales establecidos utilizando una muestra de 50 programas europeos de neurociencia y psicología:

Ranking Internacional Correlación Spearman (ρ) P-valor Interpretación
THE Subject (Psychology) 0.82 < 0.001 Correlación muy alta
QS Subject (Psychology) 0.79 < 0.001 Correlación alta
Shanghai GRAS (Psychology) 0.76 < 0.001 Correlación alta
SCImago Institutions 0.88 < 0.001 Correlación muy alta
Interpretación: La alta correlación (ρ > 0.75) con rankings establecidos valida la capacidad discriminante de nuestro sistema. Sin embargo, la correlación imperfecta (ρ < 1.0) indica que nuestro sistema aporta información complementaria, especialmente en las dimensiones de empleabilidad, recursos e internacionalización que están subrepresentadas en rankings tradicionales.

Análisis de Sensibilidad

Para evaluar la robustez del sistema, hemos simulado cambios en las ponderaciones y analizado el impacto en las posiciones de los programas:

Escenario 1: Énfasis en Investigación

Modificación: Producción científica 30% (+10%), Calidad 30% (+10%), reducción proporcional en otros indicadores.

Resultado: Cambio medio de ±2.3 posiciones (SD = 1.8)

Programas más afectados: Aquellos con alta producción pero menor empleabilidad (típicamente programas muy orientados a investigación básica).

Escenario 2: Énfasis en Empleabilidad

Modificación: Alumnado 25% (+10%), reducción en Producción 15% (-5%) y Calidad 15% (-5%).

Resultado: Cambio medio de ±1.8 posiciones (SD = 1.4)

Programas más afectados: Másteres profesionales con alta inserción laboral pero producción científica moderada.

Escenario 3: Reducción de Visibilidad

Modificación: Visibilidad 5% (-50%), redistribución proporcional en otros indicadores.

Resultado: Cambio medio de ±0.9 posiciones (SD = 0.7)

Conclusión: El indicador de Visibilidad tiene impacto moderado; cambios en esta dimensión no alteran sustancialmente el ranking.

Escenario 4: Eliminación de Normalización

Modificación: Uso de valores absolutos sin normalización por campo ni tamaño.

Resultado: Cambio dramático de ±12.4 posiciones (SD = 8.9)

Conclusión: La normalización es CRÍTICA para comparabilidad justa. Sin ella, programas grandes en neurociencia molecular dominan artificialmente.

Conclusión del Análisis de Sensibilidad: El sistema es robusto ante variaciones moderadas (±10%) en ponderaciones, con cambios promedio <3 posiciones. La normalización por campo y tamaño es el componente más crítico; su eliminación invalida completamente el ranking.

Validación de Capacidad Predictiva

Empleabilidad a 3 Años

Correlacionamos nuestras puntuaciones del año 2022 con datos de empleabilidad a 3 años (2025) de graduados:

  • Correlación: r = 0.71 (p < 0.001)
  • Interpretación: Programas con puntuaciones altas tienden a tener mejor empleabilidad sostenida en el tiempo.
  • Excepciones: Programas pequeños (<20 estudiantes/año) muestran mayor variabilidad.

Producción Científica de Egresados

Analizamos publicaciones de egresados de doctorado a 5 años de graduación:

  • Correlación: r = 0.64 (p < 0.001)
  • Interpretación: Programas top-20 en nuestro ranking producen egresados con 2.3× más publicaciones que programas en el cuartil inferior.

Calculadora Interactiva del Sistema de Ranking

Esta herramienta permite a instituciones calcular su puntuación esperada introduciendo los datos de su programa. Los resultados son orientativos; el ranking oficial requiere validación de datos y auditoría externa.

Instrucciones de Uso

Pegue datos en formato CSV con las siguientes columnas:

programa,docs_5a,citas_5a,etc_prof,q1_pct,jif_m,citescore_m,snip_m,sjr_m,pct_doctores,ratio_prof_alum,grad_t,empleo_12m,mov_intl,coaut_intl,doc_ing,fondos_comp_k€,patentes,citas_patentes,altm,descargas,enlaces_web
Introduzca datos y presione «Calcular Ranking» para ver resultados.
Nota sobre Datos: Para el ranking oficial, todos los datos son verificados mediante:
  • Acceso API institucional a Scopus/Web of Science para datos bibliométricos
  • Solicitud de memorias verificadas por agencias de calidad (ANECA, AQU Catalunya, etc.)
  • Verificación de convenios internacionales en bases de datos oficiales (Erasmus+, CORDIS)
  • Auditoría de 10% de muestra aleatoria por comité externo

Rankings de Universidades Españolas por Programa

Acceda a los rankings específicos por especialidad. Cada ranking aplica la metodología descrita con ajustes específicos por campo (ponderaciones adaptadas a las particularidades de cada disciplina).

Referencias Metodológicas y Fuentes Bibliográficas

Rankings Universitarios Internacionales

  • Times Higher Education (2025). World University Rankings 2026: Methodology explained. https://www.timeshighereducation.com/world-university-rankings/methodology
  • Times Higher Education (2024). World University Rankings 2025 methodology (PDF). https://www.timeshighereducation.com/sites/default/files/the_2025_world_university_rankings_methodology.pdf
  • QS Quacquarelli Symonds (2025). QS World University Rankings: Methodology. https://www.topuniversities.com/world-university-rankings/methodology
  • QS Quacquarelli Symonds (2025). QS World University Rankings by Subject: Methodology. https://www.topuniversities.com/subject-rankings/methodology
  • ShanghaiRanking Consultancy (2024). Academic Ranking of World Universities: Methodology. https://www.shanghairanking.com/methodology/arwu/2024
  • ShanghaiRanking Consultancy (2025). ARWU 2025 Methodology Updates. https://www.shanghairanking.com/news/arwu/2025
  • ShanghaiRanking Consultancy (2024). Global Ranking of Academic Subjects: Methodology. https://www.shanghairanking.com/methodology/gras/2024
  • SCImago Research Group (2024). SCImago Institutions Rankings: Methodology. https://www.scimagoir.com/methodology.php

Métricas Bibliométricas y Cienciometría

  • Clarivate Analytics (2024). Journal Citation Reports: The Clarivate Impact Factor. https://clarivate.com/academia-government/essays/impact-factor/
  • Clarivate Analytics (2024). Journal Citation Reports 2024: Simplifying Journal Evaluation. https://clarivate.com/academia-government/blog/journal-citation-reports-2024-simplifying-journal-evaluation/
  • Elsevier (2024). CiteScore: A comprehensive overview of journal metrics. https://www.elsevier.com/products/scopus/metrics/citescore
  • Elsevier (2023). Measuring a Journal’s Impact: SNIP and SJR Indicators. https://www.elsevier.com/researcher/author/tools-and-resources/measuring-a-journals-impact
  • Waltman, L., & van Eck, N.J. (2013). A systematic empirical comparison of different approaches for normalizing citation impact indicators. Journal of Informetrics, 7(4), 833-849. https://doi.org/10.1016/j.joi.2013.08.002
  • Hicks, D., Wouters, P., Waltman, L., de Rijcke, S., & Rafols, I. (2015). Bibliometrics: The Leiden Manifesto for research metrics. Nature, 520, 429-431. https://doi.org/10.1038/520429a
  • Colledge, L. (2014). Snowball Metrics Recipe Book. Elsevier. https://www.snowballmetrics.com/

Webometrics y Métricas Alternativas

  • Aguillo, I.F., Bar-Ilan, J., Levene, M., & Ortega, J.L. (2010). Comparing university rankings. Scientometrics, 85(1), 243-256. https://doi.org/10.1007/s11192-010-0190-z
  • Aguillo, I.F., Ortega, J.L., & Fernández, M. (2008). Webometric Ranking of World Universities: Introduction, Methodology, and Future Developments. Higher Education in Europe, 33(2-3), 233-244.
  • Altmetric (2024). How is the Altmetric Attention Score calculated? https://www.altmetric.com/about-our-data/the-donut-and-score/
  • Priem, J., Taraborelli, D., Groth, P., & Neylon, C. (2010). Altmetrics: A manifesto. http://altmetrics.org/manifesto/

Empleabilidad y Competencias

  • European Commission (2023). Graduate Tracking in European Higher Education: Towards Best Practice. Publications Office of the European Union. https://data.europa.eu/doi/10.2766/438169
  • OECD (2024). Education at a Glance 2024: OECD Indicators. OECD Publishing, Paris. https://doi.org/10.1787/19991487
  • Eurostat (2024). Employment rates of recent graduates. https://ec.europa.eu/eurostat/statistics-explained/

Contexto Específico: Psicología y Neurociencia

  • Poldrack, R.A., & Yarkoni, T. (2016). From Brain Maps to Cognitive Ontologies: Informatics and the Search for Mental Structure. Annual Review of Psychology, 67, 587-612. https://doi.org/10.1146/annurev-psych-122414-033729
  • American Psychological Association (2023). Standards of Accreditation for Health Service Psychology. APA Commission on Accreditation.
  • European Federation of Psychologists’ Associations (2022). EuroPsy: The European Certificate in Psychology. http://www.europsycertificate.eu/
  • Organization for Economic Co-operation and Development (2007). Revised Field of Science and Technology (FOS) Classification. OECD Frascati Manual.

Sistema de Ranking Científico de Programas en Psicología y Neurociencia
Versión 3.0 – Actualización 2025
Metodología de código abierto | Licencia MIT

Este sistema ha sido desarrollado con el objetivo de promover la transparencia y mejora continua de la educación superior en Psicología y Neurociencia. Los datos presentados son ilustrativos y deben ser verificados con fuentes oficiales antes de tomar decisiones académicas o profesionales.