Nueva edición de Journal Citation Reports (JCR) y nuevo indicador

Nueva edición de Journal Citation Reports (JCR) y nuevo indicador

Con la publicación de la edición 2020 del Journal Citation Reports (JCR), tradicionalmente se da por inaugurado el verano. Sin embargo, en esta ocasión, no se trata solo de la actualización del impacto de las revistas de Ciencias y Ciencias Sociales, sino que esta nueva edición va acompañada de relevantes novedades. La primera y más evidente, aunque no más importante, es el cambio de la interfaz y de la presentación de resultados.  

15 revistas de la UNED, por primera vez en JCR

En primer lugar, estos cambios en JCR vienen a reconocer la calidad de muchas de las revistas de nuestra universidad. Hasta ahora, la UNED únicamente contaba con una revista en JCR: Educación XX1. En la edición de 2020, son 16 revistas las incluidas en este índice.

  • Educación XXI
  • Revista de Derecho Político
  • Teoría y Realidad Constitucional
  • Revista Española de Educación Comparada
  • Historia y Memoria de la Educación
  • Revista Española de Orientación y Psicopedagogía
  • RIED.Revista Iberoamericana de Educación a Distancia
  • SIGNA
  • ELIA
  • Rhythmica. Revista Española de Métrica Comparada
  • Endoxa
  • Investigaciones Fenomenológicas
  • Espacio Tiempo y Forma. Serie III, Historia Medieval
  • Espacio Tiempo y Forma. Serie VII, Historia del Arte
  • Empiria
  • Acción Psicológica

Desde aquí queremos dar la enhorabuena a todas ellas porque, de alguna manera, significa un reconocimiento al gran trabajo que realizan y a su preocupación por publicar investigación de calidad. Podéis encontrar más información sobre posición, cuartiles e indicadores en la guía Herramientas de análisis de la actividad investigadora.

Journal Citation Indicator (JCI), el nuevo indicador

Asimismo, una de las novedades más destacables es su cambio de filosofía: mientras hasta ahora solo se incluía el indicador Journal Impact Factor (JIF), elaborado con las revistas de Science Citation Index Expanded (SCI) y de Social Sciences Citation Index (SSCI); ahora han incluido el indicador Journal Citation Indicator (JCI), elaborado a su vez con las revistas de Arts & Humanities Citation Index (A&HCI) y de Emerging Sources Citation Index (ESCI).

Además, el nuevo JCI está basado en las citas recibidas por una revista durante 3 años de publicación ─a diferencia de los 2 años que considera el JIF─. Así, en esta nueva edición de JCR, aparecen ambos indicadores en las revistas de SCI y SSCI; y solo el JCI, para las de A&HCI y ESCI.

El JCI, por un lado, puede mitigar la desventaja que sufrían algunas revistas, principalmente las de Humanidades, al no contar con indicadores ni ranking en JCR. Por otro lado, la horquilla de 3 años para la recolección de citas resulta más pertinente para disciplinas de CC. Sociales y Humanidades que tienen unos periodos de cita mucho más prolongados.

Aunque este nuevo indicador no está diseñado para evaluar investigadores individuales, puede ser un buen complemento a los que ya existen y, de cualquier manera, llena el vacío que tenían las revistas de amplios campos de la Ciencia.

Por último, queremos recordar que Clarivate ha organizado un webinar sobre el nuevo JCR, el 21 de julio. Más información AQUÍ

Foto de Kristopher Roller en Unsplash

Alternativas en la evaluación de la investigación

Alternativas en la evaluación de la investigación

El modelo de evaluación de la investigación lleva años en entredicho. Numerosas voces han alzado la voz en numerosas ocasiones en contra de un modelo que prima principalmente a los indicadores bibliométricos, en general, y a los índices de impacto de revista, en particular.

Emilio Delgado López Cózar, Ernest Abadal, Ismael Ràfols publicaron el pasado mayo un llamamiento a las autoridades con el título Carta: Por un cambio radical en la evaluación de la investigación en España en el Profesional de la Información. En esta carta solicitan que se abandonen las políticas de evaluación de la investigación basadas en un uso indiscriminado de los indicadores bibliométricos para casi todos los ámbitos de la actividad científica y, especialmente, que se valore el desempeño individual de los académicos.

Solicitan que se abandonen las políticas de evaluación de la investigación basadas en un uso indiscriminado de los indicadores bibliométricos que se valore el desempeño individual de los académicos.

Carta: Por un cambio radical en la evaluación de la investigación en España

En la misma repasan los efectos tóxicos que este abusivo empleo de indicadores bibliométricos está generando, tras describir los usos en los que se está empleando el Journal Impact Factor, para a continuación dar cuenta de algunas iniciativas que se están introduciendo en diferentes campos académicos y regiones del mundo, como alternativas a la bibliometría y para mejorar los procesos de evaluación.

La carta se dirige finalmente a los líderes políticos en España para que las adopten y desarrollen.

Una de estas iniciativas es la Declaración DORA sobre evaluación de la investigación, a la que se adhirió hace unas semanas la Agencia Española de Investigación prometiendo «revisar todas sus convocatorias y documentos de soporte a la evaluación para asegurar su correcta implementación».

Algunas de las recomendaciones más destacadas de DORA para mejorar la forma en que se evalúa la calidad de la producción científica son:

  • No utilizar métricas basadas en revistas, como el factor de impacto, como una medida sustituta de la calidad de los artículos de investigación individuales, para evaluar las contribuciones de un científico individual, o en las decisiones de contratación, promoción o financiación.
  • El contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado.
  • Considerar una amplia gama de medidas de impacto que incluyan indicadores cualitativos, como la influencia sobre la política y prácticas científicas.
  • Reducir profundamente el énfasis en el factor de impacto como herramienta promocional, idealmente dejando de promover su uso o presentando la métrica en el contexto de una variedad de métricas basadas en revistas.
  • Poner a disposición una variedad de métricas a nivel de artículo para alentar un cambio hacia la evaluación basada en el contenido científico de un artículo en lugar de las métricas de publicación de la revista en la que se publicó.
  • En comités que toman decisiones sobre financiación, contratación, permanencia o promoción, realizar evaluaciones basadas en el contenido científico en lugar de en métricas de publicación.
  • Impugnar las prácticas de evaluación que dependan indebidamente del factor de impacto y promover y enseñar prácticas que se centren en el valor y la influencia de los resultados de investigación específicos.

En el llamamiento a las instituciones españolas, estos profesores instan a adherirse, cumplir e implementar genuinamente los postulados de DORA y también las recomendaciones en el uso de indicadores bibliométricos señalados en el Manifiesto Leiden, no únicamente a firmar, lo que consideran serían mera operación cosmética.

Delgado, Abadal, Ràfolsomo dan ahora un paso más en su objetivo de lograr un cambio en la evaluación de la ciencia en España organizando una mesa redonda el jueves 22 de julio a las 12h, donde discutir sobre la necesidad o no de un cambio de rumbo. Buscan sugerencias, propuestas y alternativas concretas que permitan implementarlo. Os invitan a inscribiros y participar para compartir vuestras reflexiones.

Foto de ThisisEngineering RAEng en Unsplash

Scholarly Publishers Indicators (SPI): no solo un ranking de editoriales

Scholarly Publishers Indicators (SPI): no solo un ranking de editoriales

El Scholarly Publishers Indicators, más conocido como SPI, ha ido adquiriendo cada vez más relevancia en los procesos de evaluación de la investigación. Como ha demostrado durante todos estos años, es mucho más que un ranking de editoriales (aunque este sea su producto más conocido), dado que ofrece relevante información sobre las editoriales científicas y sus procesos de selección de originales.

A finales de 2018, el grupo ILIA del CSIC publicó una nueva edición con algunas novedades. Como cuentan en el Estudio cualitativo de las editoriales académicas(Giménez Toledo, 2018), el ranking de editoriales se elaboró a partir de una encuesta a investigadores, como en ediciones anteriores. Sin embargo, en esta ocasión solo se envió a los profesores universitarios que habían sido acreditados recientemente como catedráticos. Aunque se ha trabajado con una población menor que en los estudios anteriores, estos poseen una mayor experiencia. Además, para evitar la creencia de que en esta encuesta se valoran mejor las editoriales en las que estos especialistas publican, se incluyó la pregunta de si habían publicado o no en las que habían seleccionado, para que se pudiera tener en cuenta posteriormente.

Esta encuesta también se envió a catedráticos de Ciencia, Tecnología y Medicina, pero no se incluyó en el ranking dado que la respuesta fue escasa y los libros no son un medio de publicación demasiado usado en estas áreas. Por otro lado, en contraposición a versiones anteriores en las que los pesos venían determinados por la cantidad de respuestas obtenidas, ahora se ha asignado un peso inversamente proporcional a la posición en la que se menciona la editorial.

El resultado es un ranking general (para editoriales españolas y extranjeras) y rankings especializados por disciplinas (de nuevo, por editoriales españolas y extranjeras), basados en la opinión de expertos españoles en Humanidades y Ciencias Sociales.

Desde su aparición, SPI ha ido adquiriendo mayor relevancia en los distintos procesos de evaluación. Así, en la última convocatoria de la CNEAI para la evaluación de la actividad científica, ha sido incluido como una de las herramientas a tener en cuenta a la hora de valorar una publicación (libro o capítulo de libro) en los campos del 7 al 11, así como en el 6.3, Arquitectura. La ANECA lo considera un indicador de calidad en las áreas de Arte y Humanidades, Ciencias Sociales y, de nuevo, la subárea Arquitectura. Igualmente, en el Baremo UNED es el recurso usado para valorar los libros y capítulos

No obstante, además del ranking, SPI ofrece mucha otra información relevante. En el apartado Indicadores para editoriales, encontramos datos sobre su especialización temática con tablas con la producción editorial por disciplinas; también podemos conocer los sistemas de selección de originales que aplican estas editoriales; asimismo, aquí los editores pueden incluir su sistema de selección de originales para que aparezcan en SPI. Por último, en el SPI Expanded podemos consultar la presencia o ausencia de casi 4000 editoriales académicas en distintos sistemas de información internacionales (Book Citation Index, Scopus Book Titles, Norwegian list, Scholarly Publishers Indicators y Finnish list).

SPI no pretende ser un valor definitivo, sino servir como referencia en los procesos de evaluación y aportar más información sobre algunos conceptos como el del “prestigio de la editorial”. De cualquier manera, es un instrumento valioso para evaluación de la investigación en las áreas de Ciencias Sociales y Humanidades, en las que el libro es un medio de publicación muy importante.

Giménez Toledo, E. (2018). Estudio cualitativo de las editoriales académicas. La percepción de la comunidad científica española. Madrid: Federación del Gremio de Editores de España. Recuperado de:
http://ilia.cchs.csic.es/SPI/spi-fgee/docs/EAEV3.pdf

Situación y posicionamiento de las revistas de la UNED

Situación y posicionamiento de las revistas de la UNED

La evaluación del impacto y la calidad de las revistas académicas es un elemento determinante en acreditaciones, solicitud de sexenios o proyectos de investigación, presentación previa a la lectura de tesis, etc. Desde hace unos años, la Biblioteca de la UNED recopila la información sobre las revistas publicadas por esta universidad en lo relativo a su calidad e impacto, según las herramientas de evaluación vigentes recomendadas por los organismos evaluadores CNEAI y ANECA. El objetivo principal es unificar en un solo  documento la información dispersa en esas herramientas para facilitar la labor a docentes, editores de revistas, bibliotecarios y doctorandos.

Para su elaboración se han tenido en cuenta los siguientes aspectos:

  • Los datos consignados son los que otorga la herramienta en el momento de su consulta.
  • Las revistas están agrupadas por facultades diferenciadas por colores.
  • Las iniciales (P) y (E) significan “versión impresa” o “versión electrónica” respectivamente.
  • Existen recursos que han dejado de mantenerse (IN-RECS, IN-RECJ, IN-RECH, DICE, RESH), pero se ha contado con ellos porque recogen información relevante que no aparece en otras herramientas. Además, incluyen datos sobre años que aún pueden ser objeto de evaluación.
  • No se han analizado títulos anteriores. En el caso de RDUNED por ejemplo, no se ha evaluado “Revista de la Facultad de Derecho”.
  • En la casilla Bases de datos científicas que la incluyen, se ha reflejado tanto bases de datos, como repositorios y repertorios bibliográficos.
  • En relación al baremo UNED, hemos equiparado IN-RECH a IN-RECS.
  • Aunque la nueva versión de ERIH, ERIH PLUS, no otorga clasificación a las revistas, se ha incluido la valoración anterior (ver columna Criterios cumplidos/Clasificación), dado que el “Baremo UNED” la sigue teniendo en cuenta.
  • Se ha incluido la nueva herramienta Emerging Sources Citation Index (ESCI) en la misma casilla que los otros recursos de Web of Science (WOS), como otra de las bases que forman la Web of Science Core Collection.
  • Como la nueva versión de CIRC 2.0 ofrece dos clasificaciones (ciencias sociales y ciencias humanas) se incluyen ambas cuando ofrecen resultados diferentes.

Estos datos se actualizan cada vez que se detecta alguna modificación en los distintos recursos utilizados, como es el caso de las ediciones anuales de JCR y Scimago, o MIAR.

Así, en Análisis y evaluación de las revistas de la UNED podréis obtener información actualizada de forma rápida sobre la situación de estas publicaciones, cuando lo necesitéis para cualquier proceso.

Además, esta información está disponible en la Guía de herramientas para la evaluación de la actividad investigadora.  Esta guía recoge los principales recursos de evaluación de revistas y libros, dónde encontrar citas, sugerencias para obtener una mayor visibilidad en sus publicaciones, etc.

Imagen: Annie Spratt en Unsplash
EL NUEVO CIRC 2017

EL NUEVO CIRC 2017

El grupo EC3 y su Spin Off EC3metrics nos han vuelto a sorprender, antes de irnos de vacaciones, con la actualización de la herramienta CIRC (Clasificación Integrada de Revistas Científicas). Dicho producto nacía de sus manos en 2010 y desde entonces no ha dejado de crecer: la CNEAI empezó a mencionarlo en sus convocatorias en 2014, dos años más tarde aparecía una nueva versión con importantes novedades y en 2017 le han vuelto a lavar la cara.

CIRC es una clasificación de revistas científicas de Ciencias Sociales y Humanidades en función de su calidad, que integra los productos de evaluación existentes y que son considerados positivamente por las agencias de evaluación nacionales como CNEAI y ANECA. Pretende agrupar y simplificar la búsqueda de criterios de calidad en revistas teniendo en cuenta el valor que las principales agencias de evaluación españolas les asignan, según su presencia en bases de datos. Es fácil de consultar y se actualiza automáticamente cuando los productos en los que se basa, se actualizan.

Las novedades nos las cuentan ellos mismos en su propia página:

  • Han incorporado los datos de 2016 de dos herramientas muy importantes que se acaban de actualizar en este mes de junio : Journal Citation Reports (Web of Science) y Journal Metrics (Scopus)
  • Han actualizado también las revistas Latindex, sello FECYT y ERIH
  • Incluyen a Emerging Source Citation Index: las revistas aquí incluídas son la antesala para formar parte de la colección principal de la Web of Science y quizás de Journal Citation Reports
  • Incluye la base de datos de Humanidades Philosopher Index
  • Se ha rebajado el valor de los cuartiles de Scopus, del catálogo Latindex y la valoración de ERIH

 

Si quieres tener más información sobre la clasificación otorgada a tu revista, consulta en el menú la Clasificación CIRC. Podrás consultar también una definición de cada uno de los productos que integran CIRC, así como un resumen de las novedades.

Además, si formas parte del comité editorial de una revista y tienes dudas sobre cómo incluirla en CIRC, o bien necesitas aclaraciones sobre la herramienta, puedes consultar las FAQS.

La nueva CIRC 2017 se puede consultar en:  https://clasificacioncirc.es/
Ya sabes que si tienes alguna duda sobre la entrada de este blog o de otras anteriores, puedes contactar con nosotros en Biblioteca: referencia@adm.uned.es o referenciabcn@adm.uned.es

Créditos imagen: Whitepixels-43-9, por Qasim Massey.