Otro año más, PortalProgramas nos castiga con su pretendidamente serio y riguroso Ranking de Universidades en Software libre, RuSL. He seguido este indicador desde que lo lanzaron hace un par de años, y realmente, no deja de sorprenderme la importancia que se le da, teniendo en cuenta que su enfoque y ejecución muestran serias carencias de método.
Antes de que los típicos troleadores se lancen a la maledicencia, debo recordar que llevo con soft libre desde hace más de 20 años, que empezé con una Slackware con disketes, seguida por una RedHat (aún guardo la camiseta oficial que me regalaron), continué con Ubuntu, y estoy pensando seriamente pasarme a Debian. Mi docencia universitaria se apoya en software libre, y podéis revisar mi lista de publicaciones y activiades relacionada con el software libre.
Una vez dicho esto, el primer problema que se identifica es la falta de definición del objeto de estudio. No se entiende claramente que consideran los autores del estudio como difusión; finalmente se trata de «…una clasificación de universidades españolas en función de su compromiso en el uso, difusión y creación del software libre. Es un ranking especializado que las clasifica en función de 65 indicadores que miden el trabajo que realiza cada una de ellas en el ámbito del conocimiento libre.» Realmente, se trata entonces de un análisis de compromiso político y técnico. Para desarrollarlo, plantean un formulario que contiene 65 indicadores, y que es enviado y respondido por cada una de las universidades… sin que al parecer exista ningún tipo de validación independiente o autónoma posterior que verifique los datos obtenidos. Bueno, demos por sentado que siempre se responde la verdad, y que los criterios de entendimiento y consideración de cada uno de los encargados de responder los formularios son universalmente consistentes y coincidentes. Cuando se trabaja en entornos sociales, se conocen los problemas que se plantean con estos mecanismos de toma de datos y con las interpretaciones que pueden hacer de los mismos los encuestados.
Los autores indican que han recogido los datos numéricos y han computado los resultados con métodos estadísticos. No tengo nada que decir al respecto: el problema no está en los cálculos: está en los criterios y en los datos que han sido tomados como base para los mismos. Por ejemplo:
- Uso OCW ¿Tienen sección de OpenCourseWare para ofrecer material docente?: ¿Y que tiene que ver? En OpenCourseware estamos hablando de conocimiento libre, que puede incluir, o no, temas de software libre. Una universidad puede tener abundante contenido en esta plataforma que no tenga nada que ver con el soft libre.
- SL en tesis y proyectos Número de proyectos de fin de carrera/tesis cuyo fin era crear SL: ¿y los que han consistido en aplicación, uso, análisis comparativo, etc? ¿No son estudios sobre software libre?
- Colaboraciones…: Pero, ¿quién en las universidades lleva la cuenta o el control de que soft se hace, en qué contexto, o se usa, o se mejora? Este indicador ¿Cómo se obtiene en las respectivas universidades?
- Proyectos…: Para este indicador sirve lo indicado en el anterior. Un proyecto X puede desarrollar soft libre, que puede luego redistribuirse, o no. Estos datos ¿de dónde vienen, de OTRIs, etc.? ¿Cómo se cuantifican internamente en las universidades?
- Docencia…: estos indicadores sí que son para nota. Que si se han dado cursillos, y si hay algún posgrado. El planteamiento es ridículo. Si hablamos de soft libre en docencia, hablamos de estudiantes, de usuarios, de salas, de equipos instalados, de herramientas utilizadas, de datos a nivel de asignatura. Toda esta información brilla por su ausencia.
- Cultura en sotware libre…: cualquier malpensado creería que este apartado existe para justificar la importancia de las OSLs. No voy a hacer más comentarios. Este apartado tiene asignado más de un 17% del valor final del indicador…
- Tecnológicos…: este apartado es directamente inaceptable. El uso de unas u otras herramientas no depende de su tipo de licencia, sino de muchos otros condicionantes. Considerar el uso de Moodle o de Drupal en determinados contextos puede no tener ninguna relación con el apoyo o difusión en una universidad. Como ejemplos de ello, podemos ver cómo el trabajo de las unidades administrativas se hace con herramientas propietarias en universidades que usan Apache o Drupal en sus webs.
- Webmetría…: pues lo siento mucho, pero ¿aún contando enlaces? Por favor… esta es una sección que realmente necesita que la reinicien, reciban formación en condiciones, y midan seriament el impacto de los webs de las OSL… anda, si no parecen contabilizar visitas, ni ofrecen datos de Analytics, por ejemplo…
Para terminar este breve repaso, ya que no quiero entrar en detalle en todos y cada uno de los problemas existentes, sí que ruego, por favor, que cuando se habla de bibliografía e indicadores, realmente sea una sección seria donde se ofrezca información y documentos de referencia, y no ese quiero y no puedo que es ahora (chicos, que el paper de Ingwersen es de hace la friolera de 16 años…). Y ya puestos, dejamos de hacer esa distinción entre los selectos estudiantes de las facultades de informática y el resto de universitarios, lo que tampoco estaría mal…
No todo va a ser sangre: es una buena idea, y una buena iniciativa. Realmente, puede convertirse en una buena herramienta para evaluar, por ejemplo, los modelos de aceptación tecnológica. Pero no con los problemas de planteamiento, método y ejecución que son fácilmente detectables en esta iteración del ranking.