Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
179
Evaluación de producción académica docente en la Universidad de Costa Rica:
contexto y problematización
Assessment of faculty members’ scholarly production at Universidad de Costa Rica:
context and problematization
Maurizia D’Antoni Fattori
1
Guillermo Rosabal-Coto
2
RESUMEN
El presente artículo busca problematizar los criterios con los que se analiza y se otorga un puntaje a las publicaciones de
las personas docentes en la Comisión de Régimen Académico, entidad encargada de evaluar la producción académica en
la Universidad de Costa Rica, con particular referencia a cuatro criterios citados en el reglamento para evaluar la producción
académica de personal docente en propiedad; originalidad, relevancia, trascendencia/mérito reconocido y complejidad. Se
quiere interrogar críticamente la pertinencia de las nociones y los criterios sobre el mérito académico desde una perspectiva
intercultural y decolonial. En efecto, se percibe la temática de la evaluación de la producción en la universidad como
sensible en el ámbito académico mundial y, a la vez, vinculada con la internacionalización del conocimiento un asunto
político, como lo es la educación en general.
Palabras clave: índice de complejidad, criterios para publicaciones; trascendencia artículo científico; índice de impacto;
investigación colaborativa.
ABSTRACT
This article aims to problematize the criteria through which faculty members’ publications and artistic work is analyzed
and graded by the so-called Academic Regime Commission, the board in charge of assessing faculty members’ academic
production at the University of Costa Rica, with special reference to four criteria cited in the regulations to evaluate the
academic production of permanent teaching staff: originality, relevance, transcendence and complexity. We attempt to
critically examine the relevance of the notions and criteria for academic merit from an intercultural and decolonial
perspective. In fact, the issue of assessment of scholarly production in the university is perceived as sensitive in academia
and is simultaneously bound to the internationalization of knowledge -an issue as political as education broadly is.
Key Words: complexity index; criteria for publishing; scholarly paper transcendence; impact index; collaborative
research.
Agradecimiento: La autora y el autor agradecen la valiosa colaboración de Belisa Núñez Alpízar,
Referencista de la Biblioteca Luis Demetrio Tinoco, del Sistema de Información, Bibliotecas y
Documentación (SIBDI) de la Universidad de Costa Rica, para la búsqueda y localización de múltiples
fuentes consultadas para este trabajo.
1
Universidad de Costa Rica. San José, Costa Rica. Docente Catedrática de la Escuela de Psicología y la Escuela de
Formación Docente; Representante del Área de Ciencias Sociales en la Comisión de Régimen Académico. Correo
electrónico: MAURIZIA.DANTONI@ucr.ac.cr
2
Universidad de Costa Rica. San José, Costa Rica. Docente Catedrático de la Escuela de Artes Musicales; Investigador
del Instituto de Investigación en Arte; Fundador y Coordinador del Observatorio del Musicar; Representante del Área de
Artes y Letras en la Comisión de Régimen Académico. Correo electrónico: GUILLERMO.ROSABALl@ucr.ac.cr
DOI: https://doi.org/10.15517/wl.v16i2.51192
Recepción 17/12/2021 Aceptación: 30/12/2021
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
180
En la Universidad de Costa Rica, el Régimen Académico es el “sistema que organiza a los
profesores universitarios en categorías con base en sus méritos académicos y en su experiencia
universitaria” (Consejo Universitario de la Universidad de Costa Rica 2008, 1). La Comisión de
Régimen Académico es la instancia, directamente dependiente del Consejo Universitario, encargada
de evaluar la producción académica, artística y profesional de las personas docentes, evaluación que
conduce al ascenso dentro del gimen. La labor desarrollada por la Comisión es muy similar a la
valoración por pares de la producción científica para oposiciones, concursos, convocatorias a fondos
públicos y privados, así como programas, proyectos y políticas de investigación (Sarthou 2015).
La evaluación de la actividad científica y de la producción académica de los y las docentes de
educación superior, particularmente
soportada en su escritura y expresada en las publicaciones científicas, es una cuestión de interés
desde muchas perspectivas distintas: la financiación, la recompensa que genera publicar un
artículo científico en términos salariales, el apoyo económico para asistir a eventos académicos,
la dotación de plazas de profesorado universitario y su promoción, así como la concesión de
becas, entre otras (Gordillo Alfonso 2017, 60).
El hecho de que la revisión por pares se utilice como un sistema de control de calidad, tanto
como un mecanismo para la asignación de recursos, produce inevitablemente “la emergencia de
diversas tensiones y polémicas” (Sarthou 2015, 77) en torno a los criterios que la orientan. Por un lado,
es bien conocido que “el efecto de conocer a los autores y su experiencia previa puede llevar a
evaluar un artículo por razones no directamente vinculadas con su calidad sino por la reputación real
o percibida de sus autores” (Denis Ávila 2015, 1), en vista de que las personas científicas no
necesariamente son más objetivas y justas que otras personas. En anticipación de este sesgo, se ha
favorecido la evaluación por pares ciego o doble ciego.
Una tensión prominente, para las personas que producen artículos y otros insumos académicos,
es la que surge entre las funciones docente e investigadora y, eventualmente, “la extensión o
proyección social y los procesos de acreditación junto a las resistencias propias de las culturas y
estructuras universitarias” (Gordillo Alfonso 2017, 60). Desde su experiencia en Colombia, Moreno
Ferguson considera que los factores que inciden en la escritura científica han cambiado o se han
diversificado, tendiendo al énfasis en la medición de la calidad y cantidad de publicaciones como pauta
para el reconocimiento de instituciones y personas académicas, que se traduce en un aumento de la
presión para que los y las docentes universitarios escriban y publiquen. Algunas maneras de compensar
tal presión -relevantes al tema de la evaluación- son el plagio y el autoplagio (Moreno Fergusson 2015).
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
181
Aparte de los contextos individuales que rodean la producción académica, se puede decir que
generalmente la evaluación se visualiza solamente como una norma y medida institucional de mejora
de calidad, “más de las veces burocrática e impositiva” (Silva Blanco y Hernández Méndez 2016, 96).
Por lo demás, el término calidad que dicha evaluación involucra, “a pesar de ser bastante analizada en
discursos formales, sigue siendo un concepto polisémico y escurridizo, que debe ser ajustado a las
épocas y contextos disímiles” (104).
En el caso de la Universidad de Costa Rica, la Comisión se rige por el Reglamento de gimen
Académico y Servicio Docente para su labor evaluativa
3
. Entre varios temas, esta normativa específica
cuáles productos académicos, artísticos o profesionales son valorables, y de acuerdo con qué criterios
se debe desarrollar esta valoración. Un primer Reglamento entró en vigor en 1982
4
; mientras que una
segunda versión -la que rige actualmente-, comienza a regir en 1985
5
. El documento vigente incluye
una modificación parcial, en regla desde 2008
6
.
A pesar de su antigüedad, el Reglamento tuvo su última modificación parcial hace una década.
No se trata, en definitiva, de diez años cualesquiera. En este lapso, la internacionalización de la
educación superior ha avanzado de manera contundente, operando cambios de gran relevancia en
varios ámbitos académicos y profesionales. No necesariamente la valoración de esos cambios resulta
positiva para todos. En este artículo discutiremos los cambios que quienes escribimos consideramos
más importantes, sopesando sus consecuencias en términos de cómo se valoran los procesos de
producción académica, artística y profesional de las personas docentes, acomo los conceptos de
investigación y producción académica que legitiman dicha visión. Paralelamente, planteamos
interrogantes en torno a los criterios de valoración actualmente utilizados por la Comisión de Régimen
Académico. Concluimos con una interpelación en torno a las prácticas vigentes, desde una perspectiva
intercultural/decolonial.
Es importante señalar que el Consejo Universitario de la Universidad de Costa Rica (2019)
llevó a cabo una reforma parcial del Reglamento de Régimen Académico, después de una consulta al
cuerpo docente a través de la resolución R-18-2019. Esta reforma remoza y pone al día el Reglamento
mismo, que sin embargo mantiene intactos los contenidos que este artículo pretende analizar.
3
Véase el Reglamento en el siguiente enlace: http://cu.ucr.ac.cr/normativ/regimen_academico_docente.pdf
4
Fue aprobado por el Consejo Universitario en la sesión 2869-17 del 16 de febrero de 1982, y luego publicado en Gaceta
Oficial 76-82, el 22 de abril de 1982.
5
Fue aprobada en sesión 3228-13, el 23 de octubre de 1985 y posteriormente publicada en el Alcance La Gaceta
Universitaria 16-85, del 19 de diciembre de 1985.
6
Fue aprobada en sesión 5297-11 del 14 de octubre de 2008, publicada en La Gaceta Universitaria 41-2008 del 24 de
noviembre de 2008.
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
182
Quisiéramos aclarar que, especialmente luego de tener una experiencia como representantes en
el gimen Académico de la Universidad de Costa Rica, tenemos una propensión a pensar que su
Reglamento y las prácticas implicadas tienen un grandísimo espacio para mejoras, así como a la vez
nos acompaña la conciencia de que la tramitología que conllevaría una modificación sustancial de
Reglamento representas una tarea titánica, sobre todo en el momento en que, como sabemos, la
tendencia gubernamental va hacia la reducción del financiamiento a las universidades públicas y de
empeorar las condiciones de los contratos de trabajo.
La idea es la de problematizar el uso de cuatro criterios que se utilizan para evaluar la
producción académica de personal docente en propiedad; originalidad, relevancia,
trascendencia/mérito reconocido y complejidad que son los conceptos alrededor de los que finalmente
gira toda la evaluación. Estamos al tanto que el tema de la evaluación docente está en el tapete
internacional, sólo que nuestra propuesta es la de problematizar los criterios indicados, ya que están
consignados y descritos en el reglamento, como se verá, pero no se analiza en ningún momento su
significado.
Como cualquier persona que hable desde las ciencias sociales, creemos, nuestra intención no
es la de llegar a una pretendida “objetividad”, sino la de servirnos de materiales que local o
internacionalmente se refieren a temas que ayuden a fundamentar esos cuatro criterios en tanto
constructos teóricos, o bien otros temas “limítrofes”, pero no centrales para la reflexión teórica que
proponemos, como el de qué se entiende por “artículo científico”.
1. La universidad latinoamericana y la internacionalización
La historia de la universidad pública latinoamericana arranca -así como por muchos años la
hemos concebido y queremos todavía considerarla- de la reforma de Córdoba: inscrita en un proyecto
de universidad democrática, cuya gestión se comparte entre estudiantado y profesorado. Esta se
propone como una universidad autónoma, en sus dimensiones política y económica, respecto al Estado.
Está, además, abierta a las comunidades, para cuyo beneficio se compromete a orientar la producción
de conocimiento y su devolución. Sin embargo, en la actualidad, prevalece otra concepción de
universidad. En las últimas décadas, se ha venido implementando:
(...) una serie de medidas que, en este momento, permiten concebir a la universidad como una
empresa con fines de lucro y ya no como un bien común, o como una institución autónoma y
vinculada a los sectores más vulnerables de la sociedad, tal y como se había planteado en la
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
183
Reforma de Córdoba de 1918, que influyó en la concepción de las universidades
latinoamericanas (Caamaño 2018, 62).
Al mismo tiempo, atendemos a la forma en que el cuadro más amplio que estamos esbozando
influye, significativamente, sobre la vida cotidiana y el trabajo en una universidad que Caamaño (2018)
define como corporativa:
Entre las características de la universidad-empresa o corporativa, encontramos las formas
privadas de financiamiento, de contratación y administración, formas empresariales de
organización y control de las y los trabajadores universitarios que apuntan hacia la
precarización laboral, la producción para el mercado y la transformación de la cultura
académica y las subjetividades de docentes y estudiantes, las cuales les convierten en
competidores en el mercado del conocimiento (Caamaño 2018, 63).
Consecuente con la lógica del modelo neoliberal que está detrás de la universidad corporativa,
se reinterpreta la docencia como un servicio ofertado para una clientela, el alumnado. Este último, año
tras año, rellena encuestas de satisfacción que emulan a las que cumplimentamos en hoteles o líneas
aéreas, valorando el servicio que se nos provee.
Aunado a lo anterior, el mantra de la innovación educativa exige la formación docente en un
amplio abanico de recursos y actividades, muchas de ellas ligadas a las TIC (Guerra Palmero 2018,
29-30). Desde el ámbito de la evaluación educativa docente, hasta las pautas de innovación, la
Universidad de Costa Rica se posiciona en un mundo complejo: un panorama en el que intereses
privados y comerciales entran en una aparente ruta de colisión con las intenciones que edificaron la
Universidad moderna en América Latina.
La cotidianidad material en la Universidad de Costa Rica, específicamente el ambicioso
proyecto que amplió su infraestructura mediante el financiamiento del Banco Mundial (BM) en el
último quinquenio, es expresiva respecto a las políticas que más sutilmente direccionan el trabajo
académico en la institución. Los préstamos se condicionan al mandato de un aumento en la
productividad y un mejor posicionamiento en el mercado: recibir a más estudiantes de pregrado y
posgrado, acrecentar el número de carreras universitarias acreditadas
7
, y fortalecer programas de
innovación -un concepto con fuertes rasgos ideológicos (Rodríguez 2010)-, desarrollo científico y
tecnológico (Caamaño 2018).
La visión de la universidad como aliada del mercado, alerta D’ Antoni Fattori (2013), amerita
una problematización en clave decolonial. Esta atiende a la dimensión global del mercado, abarcando
7
La ley en Costa Rica obliga a hacerlo bajo el amparo del SINAES (Sistema Nacional de Acreditación de la Educación
Superior).
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
184
las relaciones políticas que median los acuerdos y convenios diseñados para unificar el estatus y
funcionamiento de la universidad. Ejemplo de ello son la constitución de un Espacio Europeo de la
Educación Superior, seguido del establecimiento del Espacio Latinoamericano: proyectos políticos
que apenas se disimulan, tras la internacionalización y asimilación a reglas establecidas, en su patrón
colonizador.
Así las cosas, la problematización que tenemos en mente parte del análisis de la dirección
impuesta a las clasificaciones internacionales que más se aproximan, en la literatura disponible, a los
ejes del Reglamento de gimen Académico en la Universidad de Costa Rica citados: originalidad
relevancia, trascendencia y complejidad, es decir legitimidad, validez, desarrollo, y sus criterios.
Consecuentemente, se reconoce una intención política colonizadora que sostiene y se entrelaza con el
marco legal que informa los instrumentos para la evaluación empleados por la Comisión de Régimen
Académico.
2. El concepto de ‘publicación científica’
El artículo científico, como género textual, es relativamente nuevo “comparado con otros en
los que los profesionales o productores de contenidos han desarrollado mucho más conocimiento y
experiencia, por ejemplo, los géneros del periodismo de prensa que cuentan con una extensa trayectoria
en la historia de la producción escrita” (Naranjo, González y Rodríguez 2016, 180). Aun así, esta es
una producción textual que “extendió sus exigencias a todos los campos del conocimiento” (181). Así
es, relativamente a la formulación estándar moderna extendida a la mayor parte de las disciplinas.
Sabemos que el paper, en cambio, cuenta siglos de historia.
Villagrant y Harris (2009) establecen que un artículo científico es un medio, a través del cual
la persona que trabaja en el ámbito de la ciencia da a conocer sus ideas. Con la intención de transmitir
una visión histórica del proceso de cientificización” de esta producción académica, que tiene una
intención comunicadora y divulgadora, los autores se remiten a las razones tras el paso desde el énfasis
en el proceso descriptivo hacia un interés en el detalle, con especial consideración de la dimensión
metodológica:
Inicialmente las publicaciones eran descriptivas (como las cartas actuales), pero a mediados del
siglo XIX, gracias a Pasteur y Koch, que confirmaron la teoría microbiológica de las
enfermedades, se hizo necesario describir en forma detallada la metodología para acallar a los
fanáticos de la generación espontánea y el dogma de la reproducibilidad se hizo central (72).
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
185
La superación del dogma de la generación espontánea, en los estudios de corte médico y
biológico, motiva el paso del ejercicio descriptivo a la rigurosidad científica. Son las razones de
bacterias las que parecen prevalecer sobre la complejidad de lo humano. La necesidad de mostrar la
existencia de pasos “desinfectados” desde el laboratorio es la que se distancia de la descripción de los
fenómenos, para dar lugar a procedimientos controlados, sometidos a leyes construidas ad hoc, con el
riesgo como se verá en la historia- de ser tautológicas.
En vista de lo anterior, entrecomillamos en este contexto el atributo de lo “científico”, pues no
necesariamente consideramos que abanderar la ciencia y lo científico sea equivalente a la defensa de
la rigurosidad del trabajo académico. Al contrario, esta adhesión delata un sesgo positivista y
cientificista. La ciencia positiva parece remitir a un aparataje torpemente (o ideológicamente) puesto
al servicio del modo de producción capitalista: un mito fundamentado en el concepto marxiano de idea
de producción, y en el dogma de la teología revelada cristiano-católica (González Gómez, 2017).
Un sesgo adicional hace de la evaluación centrada en el artículo o paper, como único resultado
del trabajo científico, una práctica problemática. Sarthou (2015), citando a Kreimer (2015), advierte
que el documento escrito puede ocultar: a) el fracaso de aquello no publicado; b) el conocimiento tácito
y rol de las personas autoras en un campo científico de relaciones sociales más amplias; y c) el interés
o necesidad de las personas autoras por legitimarse.
Bajo la inquietud de que un paper no puede ser la única medida de evaluación, ni tampoco lo
puede ser para todas las disciplinas, Mutzl, Bornmann y Daniel (2013), citados por Sarthou (2015),
niegan la hegemonía de los artículos con referato como criterio de legitimidad. Identifican, al contrario,
tendencias en los medios de divulgación en áreas de investigación. Artes y Humanidades recurren
comúnmente a monografías y antologías, además de las revistas y sus citas. Esta área, junto con
Ciencias Sociales, suele publicar más libros y artículos sin referato. Ciencias Sociales a su vez recurre
a artículos en revistas internacionales, libros, artículos en revistas académicas nacionales, y
publicaciones no académicas (Hicks 2004, citado por Sarthou 2015). Lo anterior hace suponer un
riesgo para la calidad de la producción investigativa, derivado de la presión por alcanzar difusión en
revistas arbitradas internacionales. De allí que Bianco, Gras y Sutz (2014, citados por Sarthou 2015)
concluyan que
no es posible utilizar un mismo sistema de juicios para ponderar y valorar la diversidad de
objetivos de investigación, marcos conceptuales de referencia, estrategias de investigación,
tipos de resultados y sus medios de difusión (220).
De importancia similar a la diversidad de medios utilizados para la difusión, a los que hacen
recurso diferentes disciplinas, es el carácter disímil de los estilos de escritura empleados. En este
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
186
sentido, el análisis comparativo entre escritos de química, biología y filosofía llevado a cabo por
Bonnet y González (2016), desde la perspectiva del metadiscurso y el discurso académico-científico,
es sugerente. Los autores muestran que, debido a su intención argumentativa, en los artículos
filosóficos se “presentan mitigadores y enfatizadores de modo homogéneo a lo largo de todo el texto”
(17), con una tendencia a la escritura en primera persona. En artículos de biología y química, por su
parte, se hacen frecuentes otros recursos lingüísticos como los modalizadores, “cuando se destaca la
importancia del objeto por estudiar o cuando se discuten los resultados” (17). Adicionalmente, en la
educación, se puede observar el uso más regular de marcadores relacionales y actitudinales. Parece
que, en la filosofía y las ciencias sociales y humanas, hay una tendencia a que quienes escriben se
proyecten como personas, lo cual no necesariamente aplica a las ciencias exactas y naturales. Estas
últimas “prefieren formas desagentivadas en las que más bien tienden a ocultar al sujeto de la
enunciación” (25). Las autoras concluyen que no hay estudios comparativos que aborden la manera en
que personas, al escribir artículos científicos, “construyen de diversas maneras su identidad discursiva
según su comunidad de pertenencia” (25).
Podemos añadir a la complejidad de la escritura académica en instituciones de educación
superior, que las “funciones del profesor universitario como docente y como investigador hacen que
la actividad de escribir un artículo científico sea una tarea demandante que necesita tiempo y
formación” (Gordillo Alfonso 2017, 60). Nos preguntamos entonces si tiene sentido desestimular la
búsqueda de la calidad de la investigación y producción académica, al reducir la evaluación de áreas
cualitativamente diferentes, a formatos y estilos que no necesariamente reflejan “la identidad
académica de distintas orientaciones disciplinares” (Sarthou 2015, 82).
3. Los criterios para evaluar la producción académica y artística:
constructos relativos
La investigación, según sugieren Khan et al. (2012), “abarca trabajo que
extiende las fronteras de lo que es conocido o posible”; de ahí que cualquier afirmación sobre qué es
lo fundamental en ella resulte controversial (50-1). Los marcos que utilizan las y los investigadores
para entender el mundo, y encontrar sentido a su data, son cada vez más discutibles. Por ello, la
investigación representa una actividad potencialmente problemática para quienes la llevan a cabo.
Como lo recuerda Gonzalo Sanz (1995), no es fácil valorar con objetividad la producción
científica de una persona: leer todos los materiales sometidos a valoración, contar con el bagaje que
permita valorar un producto muy especializado, e inclusiveencontrar un método ideal en el que todo
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
187
sean ventajas” (184). Sarthou (2015) compara la evaluación de la producción académica con lo que la
democracia es a la sociedad occidental: “es un sistema de gobierno imperfecto, que tiene problemas y
que los genera en su aplicación, que es mejorable en su práctica en muchos países y organizaciones”.
Pero como afirma la misma autora, citando a Sanz Menéndez (2014), lo cierto es que -y quizás es una
asunción normativa- no podemos hacer ciencia sin una evaluación de ésta, porque sin ella no sería tal”
(77). Aunque “las primeras instancias de evaluación de la ciencia académica fueron completamente
internas a los propios colectivos científicos”, la revisión por pares “se desarrolló como un mecanismo
... para definir y resguardar la ‘calidad científica’” (77).
8
.
El Reglamento de Régimen Académico y Servicio Docente de la Universidad de Costa Rica
define la medida a utilizarse por parte de la Comisión de Régimen Académico, en la evaluación de
materiales docentes de la siguiente manera:
Las publicaciones y obras de uno o varios autores podrán recibir calificaciones por números
enteros o fracciones. 0 puntos: Si se considera que el trabajo tiene poca creatividad, o si la
participación de los coautores está muy diluida. Hasta 1 punto: Cuando se considere que el
trabajo tiene relevancia en su campo. Hasta 2 puntos: Publicaciones y obras de rito
reconocido. Hasta 4 puntos: Se dasólo en publicaciones y obras que por su contenido se
consideren de importante y excepcional trascendencia en su campo. Este puntaje se podrá
aumentar a criterio de la Comisión, en números enteros hasta 6 puntos por obra o publicación
de gran complejidad, originalidad, trascendencia y reconocido mérito (Reglamento de Régimen
Académico y Servicio Docente 2008, 15).
Como es costumbre, al utilizar el reglamento un lenguaje de tipo legal existe espacio para la
interpretación de quien utilice los instrumentos reglamentarios. Tener en mente esta reflexión podría
ser de ayuda en el momento de analizar las disposiciones reglamentarias que, manifiestamente, riñan
con elementos o situaciones de la vida académica actual.
Delgado, fols y Abadal (2021) nos recuerdan que la Agencia Española de Evaluación ha
adherido a la declaración DORA (DORA, 2012), que nace en los Estados Unidos como una declaración
en el ámbito de la biología, vinculada a su vez con el Espacio Europeo para la Educación Superior. En
esa declaración, la idea es apartarse de las reglas de evaluación de la investigación fundamentadas en
un la utilización indiscriminada y desmedida de los indicadores bibliométricos para evaluar a las
personas docentes, en sus producciones académicas. Lo indicadores para la evaluación empleados allá,
según los autores, deberían de captar el valor intrínseco de cada investigación a través de su “impacto
8
Véase una descripción más detallada del itinerario de la evaluación de la ciencia académica, desde sus inicios, en
Sarthou (2015).
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
188
científico” (Delgado et al. 2022, 9), utilizando menos indicadores, pero s individualizados, con
elementos cualitativos que se desprenden del análisis de cada artículo y no se consignan a la
generalidad.
La polémica surge en España, donde los mismos Delgado et al. (2021), antes del artículo citado
de 2022, escriben una carta abierta para reaccionar al nuevo sistema de evaluación de la producción
académica en su país, por el uso excesivo de indicadores bibliométricos y en particular el Journal
Impact Factor (JIF), cuyo empleo se considera abusivo y toxico. El efecto tóxico estaría causado por
fomentar una cultura del “publica o perece”, capaz de alterar los ejes fundamentales de la labor
académica, que en España se conocen como docencia, investigación y transferencia (p.3), así como
una alteración de las líneas de investigación y un afán a publicar que se coloca por encima de valores
éticos.
Lo que tal vez vincula a Costa Rica con el caso de estos investigadores, (Delgado et al. 2022),
es la indignación y el rechazo que recorre algunos materiales, sobre todo artículos de periódico que se
citan en este artículo, ya que la legislación española y nuestro Reglamento de Régimen Académico de
la Universidad de Costa Rica seguramente están llenos de males, pero no se parecen. Nuestro
Reglamento no vincula de manera estatutaria el factor de impacto de la revista en la que se publica con
una ponderación máxima en la evaluación, más bien existe cierta elasticidad de la persona evaluadora
y son otros los criterios que representan un mayor peso en la evaluación.
Entonces, pra empezar, quisiéramos probar una lectura de los términos complejidad,
originalidad, trascendencia y reconocido mérito, que el Reglamento en objeto aplica desde el terreno
riguroso de la investigación, en calidad de constructos teóricos
9
. En efecto, en este caso no se está
tratando el concepto, por ejemplo, de originalidad como se haría con un vocablo del lenguaje
cotidiano; al contrario, se está tratando de definir y explicar una cualidad del trabajo académico que lo
hace particularmente valioso y merecedor de reconocimiento en la institución de educación superior.
Hay que recordar que ese reconocimiento, a través de un escalafón también dispuesto
reglamentariamente, redunda además en una mejora económica para las personas docentes.
Por lo tanto, complejidad, originalidad, trascendencia y relevancia pueden interpretarse como
parte de un lenguaje técnico-legal, pero ¿qué pasaría si se leyeran como conceptos científicos? Con
esto se quiere decir que nuestra apuesta es que se aclare el alcance de la medida de juicio que,
aparentemente, amarra a las personas representantes de áreas de la Comisión de Régimen Académico,
9
Según criterio experto de la lingüista Carla Victoria Jara Murillo, en oficio DL-022-2016, el Reglamento de Régimen
Académico y Servicio Docente (2008) “es omiso en definir expresamente los “requisitos y conceptos” (complejidad,
trascendencia, originalidad, creatividad y relevancia) que debe utilizar la Comisión para evaluar las obras académicas y
de otro tipo, y delega su interpretación a la mencionada Comisión.
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
189
vinculando esa medida con la investigación académica que históricamente ha trabajado los constructos
en análisis. Claramente, puede que no todos los conceptos que vamos a analizar, tomándose como
constructos teóricos, se prueben satisfactorios para aportar claridad al asunto que nos convoca: quizás
no se les considere vigentes, o, al contrario, se haya dado un viraje a su lectura en el plano investigativo
general, así como en el ámbito de la educación superior.
Ciertamente los constructos en objeto -dependiendo de la disciplina desde la cual se está
hablando, las experiencias de la persona que juzga, y la experticia profesional- se pueden interpretar
de manera diversa, traslaparse o inclusive contradecirse. La relación entre los constructos puede ser
confusa y poco transparente: de allí la necesidad de acoger en ellos, más allá de su tendencia a
petrificarse en categorías limitadas, el carácter complejo y cambiante. Lo anterior conlleva,
naturalmente, una gran responsabilidad.
No solamente en artículos de revista sino también en espacios informales, como blogs sobre
temáticas vinculadas al quehacer académico, hemos notado la aparición de narrativas que hacen
patente la preocupación por el escaso valor reconocido al factor humano, en la interpretación e
instrumentalización de constructos guía para la evaluación por pares. Rust (2018) critica en esta línea
que la evaluación de la investigación, en el campo del mercadeo, pueda penalizar artículos que utilicen
múltiples metodologías, o que proyecten más de un objetivo en un solo documento. Las propuestas
“ambiciosas”, o podríamos decir innovadoras, serían así sancionadas. El autor reflexiona, asimismo,
sobre la forma en que los procesos de evaluación ponen a reñir relevancia y rigor. Por ejemplo, una
contribución potencialmente valiosa podría ser desacreditada bajo el alegato de que el artículo no es
lo suficientemente riguroso. En ocasiones, las disciplinas sacrifican el debate más actual y relevante,
en función de los procedimientos, la metodología, y el “laboratorio”: perfection is valid more than
timeliness” (Rust 2018, 533).
Lo anterior guarda relación con las exigencias del mercado académico: el parecer de Rust
(2018) es que las revistas que él toma en cuenta tienen tiempos demasiado laxos o demasiado cortos
para aceptar o rechazar los artículos; editores y editoras no se involucran lo suficiente para ponderar
lo que proviene de pares académicos; la persona editora podría tener un papel decisorio en el balance
del juicio, actuando sobre la base de dictámenes que se limitan a presentar una lista de defectos desde
lo técnico-metodológico, en detrimento de la valoración del contenido de fondo.
Endicott Thomas (2017) afirma que a menudo los artículos que dicen algo importante, pero que
no son ortodoxos, o son inesperados, política o comercialmente inconvenientes, son rechazados por
razones estúpidas.
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
190
(...) una causa de este problema es la falibilidad natural de los seres humanos (lo cual es por
supuesto la razón por la que tenemos la revisión por pares para comenzar). Otra causa de este
problema es la tendencia de las instituciones educativas de enfocarse en la promoción de la
memorización de hechos y doctrinas, en lugar de ayudar a las personas a cultivar destrezas en
pensamiento crítico. Como resultado, muchas personas con credenciales reconocidas saben
mucho sobre la sabiduría convencional de su campo o experticia, pero están pobremente
equipados para evaluar avances pioneros, incluso en su propio campo. (Esta es la causa de
fondo del fenómeno que Thomas S. Kuhn describe en su libro La estructura de las revoluciones
científicas). Peor aún, las personas con escasas destrezas de razonamiento tienden a confiarse
demasiado porque no hay manera de saber que sus destrezas son escasas (un fenómeno llamado
el efecto Dunning-Kruger). (Endicott Thomas, 2017, p.4).
De esta manera, Endicott Thomas (2017) apela al bagaje de nuestra socialización primaria: a la
humildad y la capacidad de escucha; interpelándonos sobre el hecho de que, antes de ser personas
académicas, portamos unos lineamientos (y estereotipos) en torno a lo lido, lo legítimo, lo permitido
y lo correcto. Antes de ser académicos y académicas, somos personas con una visión de mundo,
construida en relación con los y las otras. Es a partir de ese bagaje personal que nos aproximamos a la
tarea de juzgar, seamos o no conscientes de ello. Es prudente preguntarse si será esta una de las razones
por las que, en nuestra tarea preliminar de realizar búsquedas de artículos académicos en bases de datos
para escribir este artículo, usando palabras clave como originalidad, relevancia, trascendencia/mérito
reconocido, y complejidad, nos encontramos con una escasez significativa de resultados directamente
ligados a estos términos. Sí encontramos que otros constructos, que serán discutidos en adelante,
parecen mover mayormente la problematización o el cuestionamiento relativo al tema que nos ocupa.
Hemos planteado, entonces, una serie de preguntas y evidenciado la no-linealidad del proceso
de evaluación de la producción académica. Esto especialmente cuando se trata de construir criterios
“objetivos” y universalmente válidos, sin distinción de la temática a evaluarse. Será importante ahora,
como se enunció, escrutar estos criterios, y profundizar en su significado e implicaciones.
4. Relevancia y originalidad en el debate académico
En este apartado desarrollaremos nuestra reflexión en torno a la relevancia y la originalidad
(asociada con la creatividad), entre los criterios arriba mencionados. Esta selección responde a que
fueron estos los únicos dos constructos sobre los cuales nuestra búsqueda evidencuna producción
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
191
teórica, que se interroga sobre su alcance, relativamente reciente, y vinculada con lo que nos interesa
tratar.
Como se mencionó arriba, la relevancia es uno de los criterios que guían la evaluación con base
en el Reglamento de Régimen Académico. Sutz (2014, citado por Sarthou 2015), advierte que este es
un concepto asociado a una construcción social” (83), en tanto se ve orientado por “una forma
particular de demanda que tiene el poder de otorgar relevancia: la demanda solvente, ya sea de
empresas, ya sea del Estado” (83). Esta deja por fuera la demanda “de grupos aún minoritarios y con
escaso peso político, demanda de conocimientos que permitan acercar soluciones a problemas
complejos” (ibid.).
La noción de pertinencia o relevancia, al estar estrechamente relacionada con objetivos
definidos por organismos del ámbito de la ciencia y tecnología, se vuelve problemática e insuficiente
“en el marco de determinadas condiciones políticas, económicas, sociales y culturales de una nación”
(Sarthou 2015, 83). Por tanto, una pregunta obligatoria que debe seguir a los términos, aparentemente
sencillos, de pertinencia y relevancia es ‘¿para quién?’.
La originalidad, por su parte, aunque se suele atribuir a los resultados de un estudio que “no
sean redundantes, ni hayan sido divulgados en todo o en parte en otra publicación científica” (Moreno
Fergusson 2015, 174), es un término que en el Reglamento se encuentra asociado con el de creatividad,
el cual tiene una historia en la reflexión académica. Las preguntas aquí se centran en la
conceptualización que de la creatividad han desarrollado la psicología y otras disciplinas, para
posteriormente discutir si esta característica humana, reportada a un trabajo de corte académico, puede
ser detectada y evaluada, y de qué manera.
En 2005, Chacón se propone realizar un estado de la cuestión en torno al concepto de
creatividad, enfocado en la persona creativa. Constató de esta manera que las personas investigadoras
tienden a asociar la creatividad con otros constructos, por ejemplo, con el de personalidad, pero
también identifican un conjunto de caractesticas que destacan en la persona creativa:
Estos rasgos coincidentes son la perseverancia ante los obstáculos, la confianza en sí mismo, la
ambición y la imaginación. También se considera importante incentivar la motivación
intrínseca, pero también no se debe descuidar la motivación extrínseca, que se debe manejar
con precaución, por ser un refuerzo externo. Los autores consideran que existe una relación
importante entre la inteligencia y la creatividad, aunque se cree que son aspectos
independientes. Se ha planteado una clasificación de los grupos basada en características
específicas de las personas (26).
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
192
En 2015, Esparza et al. se propusieron crear un índice de creatividad científica. Iniciaron
planteando que en la literatura científica la creatividad se ha reconocido como un rasgo de dominio
específico, así en las artes como en las ciencias. Nos recuerdan, además, que a lo largo del tiempo la
investigación ha propuesto criterios divergentes para valorar los productos creativos.
Más allá de los significados a nivel disciplinar, institucional y social que encierran los
constructos anteriores, es interesante notar como lo enuncia Gordillo Alfonso (2017), a raíz de un
estudio documental sobre la escritura científica, la multiplicidad de factores que pueden mediar la
producción académica. Por ejemplo, a mayor tiempo disponible, parece darse mayor productividad
científica, lo cual inevitablemente depende del número de horas asignadas a la docencia o a la
investigación. Lo mismo parece suceder en relación con el número de estudiantes que se atiende. Por
otra parte, el participar en equipos de investigación y el acceso a financiamientos, parecen incidir
positivamente en la cantidad de publicaciones científicas producidas.
Nuestra búsqueda nos llevó, partiendo de los conceptos que obligan nuestra práctica en
evaluación, a descubrir que las discusiones en el ámbito científico están referidas únicamente a los
criterios de relevancia y creatividad/originalidad en un artículo de corte académico. Emergen, a su vez,
otros factores dignos de interés, que median la escritura académica y su valoración social. A su vez, se
demuestra la complejidad de la tarea, solo en apariencia sencilla, de otorgar un puntaje a publicaciones
en el ámbito universitario.
5. La investigación y producción académica de carácter colaborativo
Un aspecto que merece ser discutido, sobre la evaluación de artículos y otros materiales en la
Comisión de Régimen Académico, tiene que ver con los ajustes contemplados, según el número de
personas investigadoras que participen en la producción de un texto, al puntaje que les será reconocido.
Según el reglamento que rige en la Universidad de Costa Rica, se debe “dividir”, entre las personas
autoras o productoras, el puntaje atribuido a la obra presentada ante la Comisión. Se emplea para este
fin una “Declaración jurada del grado de participación en obras colectivas [sic]”, que las personas
autoras firman, consignando el porcentaje del aporte de cada una en diferentes aspectos, y que ha sido
bastante cuestionada ya (Semanario Universidad, 23 de agosto de 2016)
Según Kahn et al. (2012) una manera de afrontar el problemático carácter de la investigación,
particularmente en el siglo XXI, es la división de funciones -además del planeamiento y la
coordinación- mediante una modalidad del trabajo en equipo en que especialistas están al servicio de
una meta específica. Sin embargo, advierten, si este intercambio se da únicamente en función de
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
193
productos inmediatos, se constriñen la producción de nuevas ideas y la apertura de posibilidades
alternativas. Se puede entonces apostar por el entendimiento mutuo, o bien la incertidumbre, a modo
de trascender la estrechez del mero dualismo ‘en solitario vs. en equipo’. Muchos retos académicos no
atañen a una sola disciplina, como sucede con la salud o el estudio de retos climáticos globales. En las
artes y humanidades, aunque no sea tan frecuente la escritura colaborativa, es común la cooperación
en entornos menos formales. Por lo demás, citando a Cronin (2004), en las anteriores áreas se hace
recurso a las ideas de otras personas, a menudo sometiéndolas a una reinterpretación, de modo que “la
autoría única no es sinónimo de encierro intelectual en solitario” (558).
Las universidades “buscan cada vez más cómo comercializar su investigación para explorar su
potencial financiero, y esto requiere relaciones colaborativas que se extienden a socios industriales y
privados” (Kahn et al. 2012, 50). Citando a Hepworth (2007), estos autores remiten en este sentido al
uso de ambientes virtuales de investigación, o networking basado en redes sociales. Estos autores
reconocen la faltante de estudios en torno a la investigación en su dimensión colaborativa. Desde su
contexto en el Reino Unido, plantean un modelo de investigación colaborativa en educación superior,
que subraya el aporte de la teoría y aborda aspectos relacionales y disciplinares.
En una revisión de literatura en torno a la coautoría de artículos científicos en una universidad
estadounidense, Burroughs (2017) reconoce que las preguntas que conducen la investigación en
humanidades avanzan hacia una mayor complejidad y sofisticación tecnológica, requiriendo un
abordaje de equipo, que saque provecho de una mayor capacidad y amplitud de destrezas y
conocimientos” (506). La coautoría en estos casos podría resultar problemática como indicador del
ejercicio colaborativo, dado que los autores y autoras involucradas han tendido a permanecer solos
físicamente en su trabajo porque su actividad epistémica primaria es la escritura” (McCarthy 2005,
12).
Trabajar colaborativamente en investigación y difusión no es necesariamente fácil, pues es
común que afloren tensiones entre grupos de investigación cuando se trabaja desde diferentes
fundamentos y culturas de lenguaje y prácticas que animan la vida académica… y con diferentes plazos
y grados de involucramiento” (Macpherson et al., 2017, 307). A partir de una experiencia propia de
investigación colaborativa, y citando a Cook (2014), FernándezDíaz et al. (2015) constatan que la
colaboración implica trazar un sendero “en el que las piezas vayan uniéndose en el mismo proceso de
negociación de los participantes, porque los intereses han de ser compartidos conjuntamente y no
impuestos desde fuera” (153). Con base en la reflexión sobre su propia experiencia, el grupo
conformado por Macpherson et al. (2017) enfatiza que, en medio de tales tensiones, es crucial
desarrollar “las cualidades de confianza, transparencia, flexibilidad y compromiso entre las personas
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
194
participantes” (308). Kahn et al. (2012), por su parte, subrayan la importancia del “compromiso
personal, el diálogo profesional y los vehículos colaborativos para sustentar la práctica compartida en
pro de metas comunes” (49).
Un artículo de Kimiloglu et al. (2012) discute cómo la investigación colaborativa, definida
como trabajo de equipo, conocimiento y experiencia compartida o comunicación continua, ha
mostrado tener ventajas tales como la visibilidad y el reconocimiento, así como el mayor acceso a
recursos. Las personas investigadoras por ellos encuestadas se han mostrado muy favorables a la
mediación tecnológica para la investigación colaborativa, apoyando la incorporación de todos aquellos
instrumentos que amplifiquen la comunicación entre las partes y potencien la colaboración. Estos
recursos son ampliamente accesibles, tal y como lo muestra Brody (2015), quien identifica categorías
de herramientas virtuales de colaboración para la investigación, con atención a insumos de bajo costo
o acceso gratuito. Entre ellas, refiere recursos para la recolección de datos, comunicación, gerencia de
proyectos, lluvia colaborativa de ideas, compartir referencias y documentos, crear contenidos
compartidos, acomo páginas web para conocer a potenciales personas colaboradoras. La autora
sugiere la implementación de protocolos para la mejor marcha de las interacciones en línea, así como
la articulación de formas de apoyo y trabajo con bibliotecas.
La demostrada complejidad del trabajo de articulación investigativa, en su modalidad
colaborativa o de coautoría, no es reconocida por el Reglamento de Régimen Académico y Servicio
Docente de la Universidad de Costa Rica. Al contrario, el concepto de trabajo investigativo como
ejercicio colaborativo es completamente invisibilizado por la normativa vigente: este castiga el trabajo
en equipo dado que puntúa únicamente la obra, distribuyendo el puntaje a ella asignado entre todas las
personas participantes. De esta manera, a mayor número de personas participantes, menor será el
puntaje reconocido a cada investigador o investigadora.
Esta disposición reglamentaria merece problematizarse dado que es común, en algunas áreas
del conocimiento, que la investigación colaborativa integre el trabajo de un número significativo de
personas. Por lo demás, a partir de un estudio sobre coautoría en las humanidades en contexto
estadounidense, Burroughs (2017) sugiere que cuánto más alto el rango académico y más extensa la
experiencia de la persona investigadora, esta tiende a buscar más alianzas en investigación colaborativa
y coautoría. El prestigio en el ámbito universitario, de esta forma, se encuentra vinculado con la
colaboración entre pares en el trabajo investigativo. Finalmente, debe añadirse el criterio de que la
investigación colaborativa tiene valor intrínseco en cuanto tal (Kimiloglu et al. 2012).
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
195
6. Sobre el factor de impacto (FI)
Como apunta Gordillo Alfonso (2017), “evaluar y medir la cantidad de contribuciones
científicas es mucho más simple que ocuparse del contenido de las mismas” (59). Un riesgo derivado
de lo anterior consiste en sobrevalorar los indicadores cuantitativos, como la indexación. Taberner
(2018) enfatiza que “la indexación de las publicaciones periódicas no puede ser el único criterio de
validación de un texto académico, ya que de este modo solo se evalúa el impacto numérico y la
visibilidad internacional de la revista, y no el contenido de los artículos” (96-7). Alfonso y Sanchís
(2015) señalan no obstante que el factor de impacto (FI), también llamado índice de impacto,
(...) ha sido la fuente de referencia más utilizada en las últimas 5 décadas para el análisis de las
citaciones (...). Se calcula analizando el número de citas recibidas por una revista durante un
año determinado … de cualquier artículo publicado por dicha revista en los 2 años precedentes
(numerador), dividido por el número total de artículos “citables” publicados por dicha revista
en esos mismos 2 años previos (denominador) (266).
10
.
Con base en un escrutinio del FI en revistas el área de medicina, Gonzalo Sanz (1995) señala que las
revistas de los índices más elevados
son las que publican artículos de revisión. Es decir, artículos que no corresponden a la
investigación propia de sus autores. En cambio, excelentes revistas que publican contribuciones
originales tienen un índice de impacto 5-6 veces menor. Es lógico que así suceda puesto que
un artículo de revisión, al poner al día un tema de investigación, es leído por muchos más
científicos que un trabajo original el cual sólo habla de un punto muy concreto. Es justa esa
puntuación para la revista, pero no para el autor: se le atribuyen 44 ó 37 puntos, cuando no ha
aportado nada original (185).
Sarthou (2015) citando a Guédon (2011) advierte, mediante el ejemplo de Thomson Scientific,
que las empresas que proporcionan medios aparentemente útiles para analizar las publicaciones lo
hacen según términos derivados de su propio plan de negocios. De esta forma, aunque el FI se defina
por cálculo, no tiene capacidad de clasificar “todas las facetas de la ciencia en sus propios términos de
apropiación” (81). La autora desglosa factores tanto sociológicos como estadísticos que determinan el
FI. Los primeros incluyen el área temática, el tipo de artículos publicados si son cortos o completos,
propuestas originales o revisiones de literatura, así como el número de personas autoras por cada
10
Para una explicación detallada del FI, más allá de la fórmula con que se calcula, véase Eisman, Mas y Barragán
(2015).
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
196
trabajo. Los factores estadísticos contemplan: el número de artículos publicados anualmente (tamaño
de la revista), y el número de años (tamaño de la ventana de medición de la citación). Factores
cruciales, de potencial impacto, son también la preferencia por ciertas bases de datos y las dinámicas
de citación de cada disciplina.
Sarthou (2015) asimismo enumera factores que inciden directamente en la citación de un
artículo, sesgando el FI: a) cuanto más se cite una publicación, más probabilidades hay de que sea
nuevamente citada; b) coexisten diferentes dinámicas de citación, tanto entre disciplinas como al
interior de estas; c) la frecuencia de aparición, accesibilidad, visibilidad, internacionalidad, impacto,
calidad o prestigio de una revista; d) el tipo de artículo -de investigación, revisión, editorial, reseña,
capítulo de libro o libros; e) la accesibilidad de la base de datos donde se encuentra la revista y f) el
idioma.
Quizás el elemento más significativo, en lo referido a la procedencia geocultural de una
publicación, sea el idioma. Las citaciones siguen un patrón de innegable sesgo lingüístico (Sarthou
2015): “[t]odas las revistas cuyo idioma no es el inglés se citan mucho menos que las que se publican
en ese idioma” (Gonzalo Sanz 1995, 85), a pesar de que sean de indiscutible calidad y relevancia
científica. Esto sucede, indica Sarthou (2015), con mayor frecuencia en las ciencias sociales y las
ingenierías. No obstante, un ejemplo clásico de esta brecha se deriva de las ciencias médicas donde, a
nivel mundial, tres artículos escritos en inglés han sido citados más de 100.000 veces cada uno. En
contraposición, el artículo más citado en español sumaba 561 citaciones (López, et al. 2016).
En el contexto de países de habla no inglesa, el culto por el FI implica renunciar al propio
idioma (Alfonso y Sanchís 2015). Para Gonzalo Sanz (1995) este sesgo lingüistico se constituye en
mecanismo de colonización idiomática. Aunque a priori pueda parecer un criterio de valoración
objetivo (Gonzalo Sanz 1995), hay consenso en cuanto a que el FI es un indicador “obsoleto,
manipulable, representativo del culto a lo cuantificable, lastrado por la lentitud de los procesos
editoriales, que no se hace cargo de la disparidad entre el impacto científico y la relevancia social, ni
es representativo de la calidad o el mérito de una publicación científica” (Fernández et al., 2011, 247).
Como si fuera poco, al procurar la publicación en revistas internacionales con FI altos, en detrimento
de las “revistas cercanas disciplinar y geográficamente”, personas investigadoras priorizan el mérito
curricular sobre la utilidad del conocimiento, impidiendo que revierta sobre los ciudadanos el
beneficio de una investigación financiada con sus impuestos” (Ibid.)
En vista de lo anterior, los Diez Principios del Manifiesto de Leiden (Hicks et al., 2015)
constituyen una propuesta “de buenas prácticas en evaluación basada en indicadores tricos para que
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
197
los investigadores puedan pedir cuentas a los evaluadores, y para que los evaluadores puedan pedir
cuentas a los indicadores” (277), a saber:
1. La evaluación cuantitativa tiene que apoyar la valoración cualitativa por
expertos.
2. El desempeño debe ser medido de acuerdo con la misión de investigación de la
persona investigadora, grupo de trabajo o institución, sea que se trate de avanzar conocimiento
académico o de abordar problemas sociales. Se debe tomar en cuenta tambn el contexto
socioeconómico y cultural de estos agentes. Por ejemplo, la evaluación puede basarse en “méritos
relevantes para la industria, el desarrollo de políticas, o para los ciudadanos en general, en vez de
méritos basados en nociones académicas de excelencia” (Hicks et al. 2015, 277).
3. La excelencia en investigación de relevancia local debe ser protegida, de manera que no se
minusvaloren las publicaciones en idiomas que no sean el inglés, y que abordan problemáticas
específicas de contextos nacionales y culturales.
4. Los procesos de recopilación y análisis de datos deben ser abiertos,
transparentes y simples.
5. Los datos y análisis deben estar abiertos a verificación por las personas evaluadas, ya sea
mediante la verificación, o la auditoría.
6. Las diferencias en las prácticas de publicación y citación entre campos
científicos deben tenerse en cuenta. Por ejemplo, tomar en cuenta que en Humanidades y Ciencias
Sociales se recurre con mayor frecuencia a escribir libros y presentar conferencias.
7. La evaluación individual de personas investigadoras debe basarse en la valoración cualitativa
de su portafolio de investigación.
8. Debe evitarse la concreción improcedente y la falsa precisión.
9. Deben reconocerse los efectos sistémicos de la evaluación y los indicadores. Es decir, se
deben anticipar cómo los indicadores “cambian el sistema científico a través de los incentivos que
establecen” (Hicks et al. 2015, 280).
10. Los indicadores deben ser examinados y actualizados periódicamente, ya que “[m]edidas
que fueron útiles en su día pasan a ser inadecuadas y nuevos indicadores aparecen” (Hicks et al. 2015,
280).
Este decálogo puede servirnos como punto de partida para la problematización de juicios a
menudo tomados por evidentes, que acaban plasmándose en reglamentos. La dimensión prescriptiva
de los indicadores, y su consecuente capacidad de cambiar el sistema científico, deben asumirse con
seriedad: la Universidad de Costa Rica, a través de sus criterios para la atribución de puntaje a la
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
198
producción académica, marca una pauta a seguir. Sumado a esto, las reflexiones en torno a la
evaluación tradicional y la evaluación auténtica (Vallejo y Molina 2014) invitan a repensar la
pertinencia del recurso a criterios generalizados a través de distintos campos científicos, que valoran
la contribución académica de cada persona en función de una escala única, sin reparar en el contexto.
Para agregar consideraciones acerca de posibles afectaciones del Reglamento a los derechos de
las personas académicas se hace referencia aquí, finalmente, a cartas o notas cuya autoría corresponde
a docentes de la Universidad de Costa Rica. Molina plantea que estas han cuestionado las actuales
disposiciones de gimen Académico por incurrir “en la violación de derechos constitucionales, como
recientemente lo ha constatado la Defensoría de los Habitantes” (La Nación, 28 de julio de 2017),
alegando asimismo que no se puede obrar dentro de la arbitrariedad y eliminar así estímulos al esfuerzo
docente en torno a la investigación y producción académica
7. Conclusión en clave decolonial
La contribución fundamental de este ensayo es la de problematizar la evaluación de los
materiales presentados por las personas docentes a la Comisión de Régimen Académico de la
Universidad de Costa Rica, en relación con la normativa existente. Una de las preguntas clave que se
desprende de lo hasta aquí desarrollado tiene que ver con la necesidad de asumirnos, actuar, y valorar
nuestro trabajo académico a partir de coordenadas que nos sitúan en la periferia de la ciencia (Sarthou
2015). En efecto, es pertinente remitirse al entramado económico-académico que estructura la
internacionalización de las universidades en Latinoamérica, sobre la cual D’Antoni Fattori (2013)
advierte al inicio de este artículo, para entender en clave decolonial por qué evaluamos la producción
académica de nuestros pares bajo criterios concebidos en países industrializados donde, dicho sea de
paso, es común que nuestro personal docente realice estudios de alguna índole. Estos criterios
importados se aplican casi literalmente en nuestras instituciones, y con la misma determinación que en
los contextos de los que provienen.
La imposición de una manera de ser fundada en el ideal del individuo blanco, europeo o
norteamericano anglosajón “desarrollado”, como principio organizador de la validación del
conocimiento en la tradición académica hegemónica, puede ser interpretada bajo lo que Rosabal-Coto
(2016) denomina la recolonización desde dentro. Esta ocurre cuando se reproducen estructuras de
control colonial al interior de la educación costarricense, orientando la organización de actores y
discursos hacia la superación de “carencias” que entorpecen el devenir Blanco de quienes toma por
sus sujetos. Este término permite evidenciar que, desde los centros que administran la academia, se
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
199
impone una visión de mundo, ciencia y conocimiento proveniente de contextos euroamericanos, que
debemos imitar a toda costa para transitar el camino de la civilización y el desarrollo. De no hacerlo,
la academia y su quehacer pierden legitimidad y validez ante esta visión hegemónica, y de cara a la
coyuntura económica que la sostiene. Resulta fundamental, por lo tanto, posicionar una visión
descolonizadora sobre nuestro quehacer académico.
Para D’ Antoni Fattori (2013) el:
(…) trabajo que se tiene por hacer en América Latina a través de la descolonización es un
planteamiento político de construcción que trasciende lo crítico y desemboca en sostener
críticamente un pensamiento “otro”: como educadores y educadoras será necesario cambiar el
modo de construirse, el desde dónde de la construcción de sí, entrando a una dimensión
“civilizatoria” de la pedagogía, luchando contra el colonialismo con las armas de la
interculturalidad (23).
A su vez, Sarthou (2015) enfatiza la necesidad
“(...) de reforzar el rol político de la evaluación de la ciencia académica, en el sentido de
vincular los propósitos de una institución con el lugar ocupado por la evaluación en el proceso
de alcanzar dichos objetivos. Debe entenderse la evaluación, y también los criterios, los
procedimientos y los participantes, como elementos centrales de la política científica y
tecnológica, y no como instancias auxiliares” (84).
Es urgente entender que la acción evaluadora, que la Comisión de Régimen Académico
cumple, debe sustentarse en una propuesta de universidad pública autónoma. En resumidas cuentas, la
propuesta evaluativa propenderá ya sea a un modelo de universidad enfocada en la venta servicios, o
una orientada al bien común: cualquier disposición que se asuma, sin apostar por una de estas
perspectivas, está destinada a la imprecisión, y por tanto producirá resultados insatisfactorios.
Entre los aspectos que este artículo pretende problematizar, emerge el perjuicio a la coautoría,
contenido en las disposiciones del Reglamento de la Comisión de Régimen Académico. El castigo a
la coautoría entra en contradicción con el interés por trabajar de manera colaborativa, que crece en
función del grado académico y la antigüedad de la persona investigadora (Burroghs 2017). Asimismo,
ignora la recognoscibilidad y visibilidad aumentada que esta modalidad de trabajo implica (Kimiloglu
et al. 2012).
El Factor de Impacto, o FI, es otro criterio de evaluación cuyas implicaciones merecen ser
discutidas. El uso de este parámetro en el contexto costarricense puede conllevar un sesgo colonialista,
al sobreestimar la relevancia del trabajo académico publicado en inglés. El cálculo del FI supone que
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
200
los materiales publicados en español, o que provienen de revistas locales, sean automáticamente
menospreciados al presentarse para su evaluación, en comparación con producciones en idiomas
extranjeros, provenientes de revistas consideradas de alto impacto, o de universidades que lideran los
ranking. Este sería el caso inclusive cuando los artículos publicados en español se ocupan de problemas
locales, apartándose de las “grandes preguntas”, o las mismas tradiciones disciplinarias.
Recientemente, el debate sobre el factor de impacto en las revistas científicas ha tratado de
develar su carácter político: Zusman (2021) vincula la nueva manera de evaluar el desempeño de las
personas investigadoras desde los años noventa, a través de la producción en revistas académicas,
coincidió con fenómenos de globalización en el neoliberalismo. Zusman reconoce además que la
lengua franca en estas revistas ha sido el inglés, en menoscabo de otros idiomas.
A su vez, Salamanca (2022) reconoce que los criterios para atribuir méritos a una revista han
cambiado e insiste en decir que el índice bibliométrico, que examina cuantitativamente cntas veces
han sido citato los artículos de la revista en los dos años anteriores, puede que evidencie la circulación
de un artículo dado, pero no directamente su calidad.
En la Universidad de Costa Rica el factor de impacto no es un elemento central, en términos
reglamentarios, para determinar la puntuación de un artículo presentado en el Régimen Académico,
sin embargo esta reflexión acerca del mismo FI muestra como en el tiempo y una determinada
orientación política ha influido en las revistas científicas y en el mundo académico
Uno de los elementos centrales a la labor de evaluación, atendiendo a su carácter prescriptivo,
debería ser la búsqueda de soluciones atinentes a nuestro contexto. Iniciamos este artículo con una
reflexión en escala macro sobre el trabajo de evaluación. En este punto, no obstante, resulta necesario
situar la discusión en la complejidad del contexto específico de nuestra universidad: leer en ella las
coordenadas del qué, cómo, y para qué evaluar.
Si los criterios establecidos reglamentariamente de originalidad, trascendencia, relevancia y
complejidad no se encuentran todos suficientemente estudiados en calidad de constructos que
expliquen su significado más allá de un empleo semántico, superficial para el uso al que están
destinados, será preciso entonces empezar por investigar y aclarar teóricamente lo presentado por el
Reglamento.
8. Recomendaciones
Complejidad, trascendencia, originalidad/creatividad y relevancia, en tanto criterios de
evaluación establecidos en el artículo 42 del Reglamento, son insuficientes para una valoración seria
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
201
y contextualizada del trabajo docente. Es recomendable que el Reglamento incorpore criterios que
reconozcan la construcción colectiva, interdisciplinaria, transdisciplinaria e internacional del
conocimiento, así como las particularidades de cada disciplina y problema de investigación.
Proponemos que se tome en cuenta la relación, señalada por Burroughs (2017), entre rango
académico/experiencia docente y búsqueda de alianzas en coautoría/colaboración en la investigación.
Consideramos que las unidades académicas podrían incentivar estas prácticas en el personal académico
más joven, incorporándolas a los criterios de selección y reclutamiento, para fomentar su reproducción
en los contextos de trabajo.
Finalmente, esperamos que desde las s altas jerarquías universitarias se puedan tomar en
consideración los cuestionamientos globales en torno a los modelos de universidad, y la finalidad
política de las orientaciones de acuerdo a las cuales, desde el ámbito internacional, se quiere organizar
el trabajo en la Universidad. Esta reflexión atañe especialmente a la universidad pública, extendiéndose
a sus facetas reglamentarias y aparentemente ‘técnicas’.
Desde la mirada decolonial/intercultural leemos una tendencia preocupante a legitimar las
preguntas investigativas en función de su importancia en contextos académicos y científicos foráneos.
Proponemos por lo tanto superar la imposición de un ideal de una persona investigadora, quizás desde
una academia de orientación neoliberal y corporativa, cimentada en los ideales de civilización y el
progreso. Juzgar un quehacer laborioso y complejo debe implicar tomar en cuenta sus múltiples
contextos, problemas, y metodologías, ya que su fin último es el beneficio en diferentes áreas de la
vida social.
Referencias
Ackerman, Mario, Francisco Ferrer, Roxana Piña y Horacio Rosatti. 2012. Diccionario
jurídico. Argentina: Editorial Rubinzal Culzoni.
Alfonso, Fernando y Juan Sanchís. 2015. «Excelencia editorial y científica de las revistas
biomédicas: ¿está todo en el factor de impacto?». Archivos de Cardiología de México 85 (octubre-
diciembre): 265-9. https://doi.org/10.1016/j.acmx.2015.10.001
Brody, Stacy .2017. «Web -based tools for collaborative research». Library Hi Tech News 34:
pp.8 -19, https://doi.org/10.1108/LHTN -08 -2017 -0062
Bonnet, Marcela y Daniela González. 2016. «La escritura científica en las disciplinas: análisis
del metadiscurso interpersonal en artículos científicos de química, biología y filosofía». Signo y
Pensamiento 35 (julio-diciembre): 16-28. https://www.redalyc.org/articulo.oa?id=86049512001
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
202
Burroughs, Jennie. 2017. «No Uniform Culture: Patterns of Collaborative Research in the
Humanities». Libraries and the Academy 17 (julio). 507-527. https://muse.jhu.edu/article/664310
Caamaño, Carmen. 2018. «Sensibilización sobre la equidad de género, conflicto y políticas de
equidad e inclusión en la Universidad-Empresa: El caso de la Universidad de Costa Rica».
Coordinado por María José García Oramas. Costa Rica: Instituto de Investigaciones Sociales.
https://repositorio.iis.ucr.ac.cr/handle/123456789/430
Caamaño, Carmen y Flory Chacón. 2017. Internacionalización neoliberal de la Educación
Superior Pública. Transformación educativa, sustentabilidad y prácticas emancipatorias. En
Transformación educativa, sustentabilidad y prácticas emancipatorias, copilado por Martha Nélida
Ruiz, 283-299. México: Fronter Abierta. https://repositorio.iis.ucr.ac.cr/handle/123456789/355
Chacón Araya, Yamileth. 2005. «Una revisión crítica del concepto de creatividad».
Actualidades Investigativas en Educación 5 (enero-junio): 1-30.
https://doi.org/10.15517/aie.v5i1.9120
Consejo Universitario de la Universidad de Costa Rica. 2008. Reglamento de Régimen
Académico y Servicio Docente. San José: Universidad de Costa Rica.
http://cu.ucr.ac.cr/normativ/regimen_academico_docente.pdf
Castro Salamanca, Ana Belén. 2022. «Calidad de una revista científica: mucho más que
impacto.». NURE investigación: Revista Científica de enfermería 117: 1.
D’ Antoni, Maurizia. 2013. «Educación superior en Costa Rica: ¿Rankización y
descolonización?». Revista Electrónica Educare, 17 (setiembre-diciembre): 21-40.
https://doi.org/10.15359/ree.17-3.2
Delgado López, Emilio, Ismael Ràfols, Ernest Abadal. 2021. «Letter: A call for a radical change
in research evaluation in Spain». Profesional de la información 30: 1-6.
https://doi.org/10.3145/epi.2021.may.09
Delgado López, Emilio, Ismael Ràfols, Ernest Abadal. 2021. «Medidas insuficientes para un
cambio en la evaluación de la investigación en España: glosando las nuevas directrices de la
ANECA. RECERCA». Revista de Pensament i Anàlisi 27: 1-10. https://doi.org/10.6035/recerca.6308
Denis Ávila, Dennis. 2016. «Diferencias morfométricas entre pichones hermanos en siete
especies de garzas (Aves: Ardeidae) en la ciénaga de Birama, Cuba». Revista Cubana de Ciencias
Biológicas 4 (3), 1-4.
DORA. 2012. «Declaración de San Francisco sobre la evaluación de la investigación».
https://sfdora.org/read/.
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
203
Eisman, María Eugenia, Beatriz Mas y Alejandro Barragán. 2015. «Nuevo reto: Factor de
impacto». Revista Española de Cirugía Ortopédica y Traumatología 59 (enero-febrero) 1-2.
https://doi.org/10.1016/j.recot.2014.12.002
Endicott Thomas, Laurie. 2017. «En Peer Review, We Need More Natural Intelligence».
http://nottrivialbook.com/2017/07/15/in-peer-review-we-need-more-natural-
intelligence/?fbclid=IwAR0x-uFzRVYhOovcqOdgtxNZb5XTDPgKecu7D_JadKdPajMLKYyqB1N-
YhI
Esparza, Javier, Mercedes Ferrando, Carmen Ferrándiz y María Dolores Prieto. 2015. «Índice
de Creatividad Científica (IC): Originalidad y Calidad».
https://www.researchgate.net/publication/324390148_Indice_de_Creatividad_Cientifica_IC_Original
idad_y_Calidad
Fernández Díaz, Elia, Esteban Gutiérrez y Lorea Fernández. 2015. «Una investigación
colaborativa interuniversitaria para repensar un modelo docente comprometido con el cambio
educativo». Revista Interuniversitaria de Formación del Profesorado 82: 143-15.
https://dialnet.unirioja.es/metricas/documentos/ARTREV/5133504
Fernández Sola, Cayetano, José Granero, José Manuel Hernández y Gabriel Aguilera. 2011.
«Factor de impacto de revistas: ¿amenaza u oportunidad?» Aquichan 11 (diciembre): 245-55.
https://dialnet.unirioja.es/servlet/articulo?codigo=3924373
Franco López, Angeles, Javier Sanz y Jesús M Culebras. 2016. «Publicar en castellano, o en
cualquier otro idioma que no sea inglés, negativo para el factor de impacto y citaciones». Journal of
Negative and no Positive Results 1 (junio): 65-70. https://doi.org/10.19230/jonnpr.2016.1.2.1005
González Gómez, Andrés. 2017. «El materialismo histórico contra el cientificismo». El
Basilisco: Revista de materialismo filosófico. 5-37.
https://dialnet.unirioja.es/servlet/articulo?codigo=6156292
Gonzalo Sanz, Luis María. (1995). «Índice de impacto. Pros y contras». Revista de Medicina
de la Universidad de Navarra. 39: 184. https://revistas.unav.edu/index.php/revista-de-
medicina/article/view/8858/7833
Gordillo Alonso, Adriana. 2017. «La escritura científica: una revisión temática». Signo y
Pensamiento 36: 52-64. https://www.redalyc.org/pdf/860/86054913003.pdf
Guerra Palmero, Maria José. 2018. «Universidades, neoliberalismo académico e igualdad de
género». Coordinado por María José García Oramas. Costa Rica: Instituto de Investigaciones Sociales.
https://repositorio.iis.ucr.ac.cr/handle/123456789/430
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
204
Hicks, Diana, Paul Wouters, Ludo Waltman, Ismael Rafols y Sarah de Rijcke. 2015. «El
Manifiesto de Leiden sobre indicadores de investigación». Revista Iberoamericana de Ciencia,
Tecnología y Sociedad 10 (mayo): 275-280. https://doi.org/10.1038/520429a
Jara Murillo, Carla Victoria. 2016. «Comunicación escrita». Revistas de Artes y Letras 32: 57-
68. https://revistas.ucr.ac.cr/index.php/kanina/article/download/4110/3937/
Kahn, Peter, Christos Petichakis y Lorraine Walsh. 2012. «Developing the capacity of
researchers for collaborative working». International Journal for Researcher Development 3 (mayo):
49-63.
https://www.emerald.com/insight/content/doi/10.1108/17597511211278643/full/html?skipTracking=
true
Kimiloglu, Hande, Meltem Ozturan y Asli Sencer Erdem. 2012. «Collaborative research:
opinions and information technology utilization potential». Management Research Review 35
(octubre): 1134-1152.
https://www.emerald.com/insight/content/doi/10.1108/01409171211281264/full/html
López Cozar, Emilio, Ismael Ràfols y Ernest Abadal. 2022. «Medidas insuficientes para un
cambio en la evaluación de la investigación en España: glosando las nuevas directrices de la
ANECA. RECERCA». Revista de Pensament i Anàlisi 27 (noviembre):1-
10. https://doi.org/10.6035/recerca.6308
Davies, Ceri, Angie Hart, Suna Eryigit, Anne Rathbone, Emily Gagnon, Lisa Buttery y Scott Denis.
2017. «Collaborative community research dissemination and networking: Experiences and challeges».
Gateways: International Journal of Community Research and Engagement 10 (junio): 298-312.
https://doi.org/10.5130/ijcre.v10i1.5436
Moreno Fergusson, María Elisa. 2015. «Buenas prácticas en la publicación de artículos
científicos». Aquichan 15 (abril-junio): 174-175. http://www.scielo.org.co/scielo.php?pid=S1657-
59972015000200001&script=sci_arttext&tlng=es
Naranjo, Sandra, Dory Luz González y Johanna Rodríguez. 2016. «El artículo científico: Los
límites de la interpretación de un nero textual». Revista Republicana (marzo-agosto): 179-200.
http://dx.doi.org/10.21017/Rev.Repub.2016.v21.a17
Rodríguez Arrocho, Wanda. 2010. «El concepto de calidad educativa: una mirada crítica desde
el enfoque históricocultural». Actualidades Investigativas en Educación 10 (enero-abril): 1-28.
https://www.redalyc.org/articulo.oa?id=44713068015
Rosabal Coto, Guillermo. 2016. Music learning in Costa Rica: A postcolonial institutional
ethnography. San José, Costa Rica: Studia Musica 68
Wimblu, Rev. Estud. de Psicología UCR, 16(2) 2021 (Julio-Diciembre): 179-205 /ISSN: 1659-2107
205
Rust, Roland. 2018. «Editorial: Reflexions on the review process». International Journal of
Research in Marketing 35 (diciembre): 533-535.
https://www.sciencedirect.com/science/article/pii/S0167811618300491?via%3Dihub
Silva Blanco, Lily Ariadna y Griselda Hernández Méndez. 2016. «Actitudes del profesorado
de la Universidad Veracruzana hacia el Programa de Estímulos al Desempeño Académico». Revista
Internacional de Didáctica y Organización Educativa volumen (julio-diciembre): 96-108.
https://revista.uclm.es/index.php/rdi/issue/view/26
Sarthou, Nerina Fernanda. 2015. «Ejes de discusión en la evaluación de la ciencia: revisión por
pares, bibliometría y pertinencia». Revista de Estudios Sociales 58 (enero-febrero): 76-86.
http://dx.doi.org/10.7440/res58.2016.06
Taberner, Rosa. 2018. «Métricas alternativas: Más aldel factor de impacto». Actas Dermo-
Sifiliográficas 109 (marzo): 95-7. https://doi.org/10.1016/j.ad.2018.01.002
Vallejo Ruiz, Mónica y Jesús Molina Saorín. 2014. «La evaluación auténtica de los procesos
educativos». Revista Iberoamericana de educación 64 (noviembre-enero): 11-25.
https://rieoei.org/historico/documentos/rie64a01.pdf
Villagrant, Andrea y Paul Harris. 2009. «Algunas claves para escribir correctamente un artículo
científico». Revista Chilena de Pediatría 80 (enero-febrero): 70-78.
https://scielo.conicyt.cl/pdf/rcp/v80n1/art10.pdf
Zusman, Perla. 2021. «Revistas científicas y Geometrías del poder». Scripta Nova. Revista
Electrónica de Geografía y Ciencias Sociales 25.3.
Esta obra está bajo una licencia de Creative Commons Reconocimiento-
NoComercial-CompartirIgual 4.0 Internacional