martes, 21 de noviembre de 2017

Análisis de una propuesta de indicadores de calidad metodológica para la valoración y clasificación de revistas de investigación

Director de RELIEVERevista ELectrónica de Investigación y EValuación Educativa. Universidad de Valencia (UV)
Aula Magna 2.0 ha vuelto un año más a su cita con los lectores y con vocación de ser un punto de encuentro sobre investigación educativa y el que probablemente se ha convertido ya en su principal medio de difusión: las revistas científicas.
Desde el principio uno de los principales objetivos de Aula Magna 2.0 fue el de posibilitar el establecimiento de “debates sobre temas y problemas de la educación en nuestro contexto global” (Diestro Fernández, Ruiz-Corbella & Galán, 2015). En efecto, la tecnología ha propiciado la aparición de nuevos instrumentos de comunicación entre los académicos (Mengual & Aliaga, 2017), en este caso un blog, que permiten por su flexibilidad y rapidez, un intercambio de ideas, un debate, con menos corsés y más agilidad que las revistas y, no digamos, los libros. Se trata de un nuevo entorno al que todos tenemos que adaptar nuestros hábitos académicos, incluso nuestro lenguaje, pero que puede ser una excelente herramienta para la mejora de la investigación.
En este contexto, quisiera comentar la propuesta recientemente planteada por Rodríguez-Sabiote (2017) en este mismo medio. Tradicionalmente se han planteado distintos enfoques para evaluar las revistas científicas, básicamente las que tienen que ver con su impacto (generalmente medido mediante contabilización de citas recibidas), con su prestigio en la comunidad científica (encuestas, expertos, etc.) o con el cumplimiento de criterios de calidad editorial (generalmente solo formales). Cercano a este último enfoque, pero con un planteamiento algo diferente, Rodriguez-Sabiote propone unos “indicadores de calidad metodológica” con la intención de que puedan utilizarse “para la valoración y clasificación de revistas de investigación” (Título).
En mi opinión, cualquier aportación que nos oriente para la evaluación y mejora de las revistas científicas siempre es bienvenido. En este caso, la propuesta de Rodríguez-Sabiote puede ser un punto de partida interesante para este propósito, por lo que merece un análisis y debate cuidadoso.
Básicamente la propuesta de Rodríguez Sabiote (2017) plantea analizar la presencia o ausencia de diversas informaciones específicas sobre la metodología de investigación empleada en las investigaciones empíricas. Este planteamiento ya denota algunas limitaciones de este acercamiento: no todas las revistas publican exclusiva o mayoritariamente artículos de investigación empírica. La razón es evidente: la ciencia no es sólo investigación empírica, ya que también requiere de una parte de elaboración teórica y de propuesta de modelos que nos ayuden a entender mejor la realidad. 

No en balde, denominamos al método científicos como hipotético-deductivo, dos términos que hacen referencia a las fases puramente teóricas (a pesar de que el método científico empieza y acaba con hechos). Así pues, la necesidad de teorías (que, obviamente, pueden y suelen plantearse en artículos teóricos) no es algo ajeno, ni mucho menos, a la ciencia ni, por tanto, a las revistas científicas. Recordemos, por ejemplo, lo que significó para la el avance de la ciencia el denominado “Annus mirabilis” (año maravilloso) de Einstein (1905), con la publicación de diversos artículos teóricos (el autor era un desconocido que trabajaba en una oficina de patentes, sin ningún laboratorio en el que experimentar ninguna de sus ideas) en la revista Annalen der Physik (Dávalos, 2005). No hay, por tanto, metodología empírica alguna que analizar en esos artículos, en esa revista, lo cual difícilmente puede argüirse contra la calidad de dicha publicación.
Aceptemos, por tanto, que la propuesta de indicadores de Rodríguez-Sabiote (2017) no es un indicador de la calidad “de las revistas”, con carácter general. De hecho, el objetivo planteado por el autor es más bien el de analizar “los niveles técnico-metodológico y estadístico-analítico de los informes empíricos de investigación” (penúltimo párrafo de la introducción). Sin embargo, tanto en el título de su trabajo como en la valoración final por categorías sí se plantea utilizar las puntuaciones obtenidas para evaluar las “revistas”, en su conjunto, lo que puede resultar algo confuso.
Dada la diversidad metodológica propia de las Ciencias Sociales, encontramos otras limitaciones en el tipo de indicadores propuestos: no son aplicables a todo tipo de enfoque sino que se centra, fundamentalmente, en investigaciones realizadas desde un enfoque empírico cuantitativo, derivado de postulados positivistas (Husén, 1997). El vocabulario empleado, y el nombre de los tópicos objeto de análisis (muestreo, fiabilidad, validez, variables, etc.) denota este sesgo cuantitativo. No quedan, por tanto, bien recogidas las características de investigaciones empíricas propias de otros enfoques (cualitativos, sociocríticos, etc.) o con otras metodologías (histórica, comparada, etc.) en el listado de indicadores propuestos.
También sería deseable encontrar mayor especificación terminológica en algunos de los items que propone Rodríguez-Sabiote. Así, por ejemplo, es discutible que el último de los indicadores, “Los análisis de datos están adecuadamente interpretados”, pueda interpretarse en términos de presencia/ausencia (los análisis pueden ser correctamente interpretados, pero de manera incompleta, o no suficientemente interrelacionados con otros resultados), además de que el término “adecuadamente” remite, necesariamente, a una valoración subjetiva, y por tanto variable, entre los distintos potenciales evaluadores.
Por último, respecto al uso propuesto del conjunto de los indicadores, quisiéramos plantear dos observaciones. La primera, que ya hemos avanzado, es que se pretenda utilizar el cumplimiento de los mismos para evaluar “las revistas” y no los artículos, dado que muchas de las publicaciones periódicas incluyen artículos de distinto tipo, incluyendo artículos teóricos, experiencias de innovación docente, etc. Dependiendo del perfil de las revistas analizadas, podemos encontrarnos que en algunos casos quedan excluidos del análisis propuesto de indicadores de investigación empírica más de la mitad de los artículos publicados, por lo que difícilmente podemos generalizar los resultados a toda la revista.
La segunda objeción se refiere a la denominación de la propuesta de categorías de evaluación para las revistas, en la que se habla de cuartiles. Este término tiene una definición precisa en el ámbito matemático: “Valor que divide un conjunto ordenado de datos estadísticos de forma que un porcentaje de tales datos sea inferior a dicho valor” (definición del diccionario de la Real Academia Española; el subrayado es nuestro). La utilización del término cuartil en este contexto (a priori, y no a posteriori) introduce una confusión entre evaluación referida al criterio y evaluación referida a la norma (Hambleton, 1997). Hablemos de categorías jerárquicas, pero dejemos el término cuartil (que tanto arrastra de por sí) para agrupar porcentajes de casos, no cumplimiento de grupos de criterios.
En definitiva, la propuesta de Rodríguez-Sabiote (2017) nos parece un muy interesante punto de partida para crear una herramienta que nos ayude a los editores a perfilar mejor las exigencias que hemos de plantear a los manuscritos en los casos de artículos de investigación empírica de enfoque cuantitativo. No debería ser difícil ampliarlo un poco más (o adaptarlo, caso de utilizar instrumentos diferentes o con apartados intercambiables) para cubrir también otras investigaciones empíricas planteadas desde otros paradigmas. La opinión y las aportaciones de otros editores, de revistas con perfiles bien diferentes, puede ayudar a ir dando forma a una herramienta con gran potencial. Damos por tanto la bienvenida a la interesante propuesta y animamos los editores (de Aula Magna 2.0, pero también a los demás) a hacer aportaciones al respecto.
Referencias bibliográficas:
Dávalos, A. L. (2005). Una perspectiva histórica del Annus Mirabilis 1905. Revista de Enseñanza de la Física, 18(1), 9-16.
Diestro Fernández, A; Ruiz-Corbella, M. & Galán, A. (2015, octubre, 23). Aula Magna 2.0. Revistas Científicas de Educación en Red. Aula Magna 2.0. [Blog]. Recuperado de:https://cuedespyd.hypotheses.org/665
Hambleton (1997). Criterion-refered Measurement. En J.P. Keeves (ed.) Educational research, methodology, and measurement: an international handbook (pp.719-725), 2nd edition. Oxford: Pergamon.
Husén, T. (1997). Research Paradigms in Education. En J.P. Keeves (ed.) Educational research, methodology, and measurement: an international handbook (pp.16-21), 2nd edition. Oxford: Pergamon.
Mengual, S. & Aliaga, F. (2017). Pre-prints: nuevas oportunidades para autores y publicaciones periódicas. Aula Magna 2.0. [Blog]. Recuperado de:http://cuedespyd.hypotheses.org/2816
Rodríguez-Sabiote, C. (2017). Propuesta de indicadores de calidad metodológica para la valoración y clasificación de revistas de investigación. Aula Magna 2.0. [Blog]. Recuperado de: https://cuedespyd.hypotheses.org/3090
Cómo citar esta entrada:
Aliaga, F. (2017). Análisis de una propuesta de indicadores de calidad metodológica para la valoración y clasificación de revistas de investigación. Aula Magna 2.0. [Blog]. Recuperado de: http://cuedespyd.hypotheses.org/3163 

Tomado de Aula Magna 2.0 con permiso de sus autores

lunes, 20 de noviembre de 2017

Análisis de una propuesta de indicadores de calidad metodológica para la valoración y clasificación de revistas de investigación



Por Francisco M. Aliaga. (Tomado de Aula Magna 2.0)
Director de RELIEVERevista ELectrónica de Investigación y EValuación Educativa. Universidad de Valencia (UV)

Aula Magna 2.0 ha vuelto un año más a su cita con los lectores y con vocación de ser un punto de encuentro sobre investigación educativa y el que probablemente se ha convertido ya en su principal medio de difusión: las revistas científicas.
Desde el principio uno de los principales objetivos de Aula Magna 2.0 fue el de posibilitar el establecimiento de “debates sobre temas y problemas de la educación en nuestro contexto global” (Diestro Fernández, Ruiz-Corbella & Galán, 2015). En efecto, la tecnología ha propiciado la aparición de nuevos instrumentos de comunicación entre los académicos (Mengual & Aliaga, 2017), en este caso un blog, que permiten por su flexibilidad y rapidez, un intercambio de ideas, un debate, con menos corsés y más agilidad que las revistas y, no digamos, los libros. Se trata de un nuevo entorno al que todos tenemos que adaptar nuestros hábitos académicos, incluso nuestro lenguaje, pero que puede ser una excelente herramienta para la mejora de la investigación.
En este contexto, quisiera comentar la propuesta recientemente planteada por Rodríguez-Sabiote (2017) en este mismo medio. Tradicionalmente se han planteado distintos enfoques para evaluar las revistas científicas, básicamente las que tienen que ver con su impacto (generalmente medido mediante contabilización de citas recibidas), con su prestigio en la comunidad científica (encuestas, expertos, etc.) o con el cumplimiento de criterios de calidad editorial (generalmente solo formales). Cercano a este último enfoque, pero con un planteamiento algo diferente, Rodriguez-Sabiote propone unos “indicadores de calidad metodológica” con la intención de que puedan utilizarse “para la valoración y clasificación de revistas de investigación” (Título).
En mi opinión, cualquier aportación que nos oriente para la evaluación y mejora de las revistas científicas siempre es bienvenido. En este caso, la propuesta de Rodríguez-Sabiote puede ser un punto de partida interesante para este propósito, por lo que merece un análisis y debate cuidadoso.
Básicamente la propuesta de Rodríguez Sabiote (2017) plantea analizar la presencia o ausencia de diversas informaciones específicas sobre la metodología de investigación empleada en las investigaciones empíricas. Este planteamiento ya denota algunas limitaciones de este acercamiento: no todas las revistas publican exclusiva o mayoritariamente artículos de investigación empírica. La razón es evidente: la ciencia no es sólo investigación empírica, ya que también requiere de una parte de elaboración teórica y de propuesta de modelos que nos ayuden a entender mejor la realidad. No en balde, denominamos al método científicos como hipotético-deductivo, dos términos que hacen referencia a las fases puramente teóricas (a pesar de que el método científico empieza y acaba con hechos). 

Así pues, la necesidad de teorías (que, obviamente, pueden y suelen plantearse en artículos teóricos) no es algo ajeno, ni mucho menos, a la ciencia ni, por tanto, a las revistas científicas. Recordemos, por ejemplo, lo que significó para la el avance de la ciencia el denominado “Annus mirabilis” (año maravilloso) de Einstein (1905), con la publicación de diversos artículos teóricos (el autor era un desconocido que trabajaba en una oficina de patentes, sin ningún laboratorio en el que experimentar ninguna de sus ideas) en la revista Annalen der Physik (Dávalos, 2005). No hay, por tanto, metodología empírica alguna que analizar en esos artículos, en esa revista, lo cual difícilmente puede argüirse contra la calidad de dicha publicación.
Aceptemos, por tanto, que la propuesta de indicadores de Rodríguez-Sabiote (2017) no es un indicador de la calidad “de las revistas”, con carácter general. De hecho, el objetivo planteado por el autor es más bien el de analizar “los niveles técnico-metodológico y estadístico-analítico de los informes empíricos de investigación” (penúltimo párrafo de la introducción). Sin embargo, tanto en el título de su trabajo como en la valoración final por categorías sí se plantea utilizar las puntuaciones obtenidas para evaluar las “revistas”, en su conjunto, lo que puede resultar algo confuso.
Dada la diversidad metodológica propia de las Ciencias Sociales, encontramos otras limitaciones en el tipo de indicadores propuestos: no son aplicables a todo tipo de enfoque sino que se centra, fundamentalmente, en investigaciones realizadas desde un enfoque empírico cuantitativo, derivado de postulados positivistas (Husén, 1997). El vocabulario empleado, y el nombre de los tópicos objeto de análisis (muestreo, fiabilidad, validez, variables, etc.) denota este sesgo cuantitativo. No quedan, por tanto, bien recogidas las características de investigaciones empíricas propias de otros enfoques (cualitativos, sociocríticos, etc.) o con otras metodologías (histórica, comparada, etc.) en el listado de indicadores propuestos.
También sería deseable encontrar mayor especificación terminológica en algunos de los items que propone Rodríguez-Sabiote. Así, por ejemplo, es discutible que el último de los indicadores, “Los análisis de datos están adecuadamente interpretados”, pueda interpretarse en términos de presencia/ausencia (los análisis pueden ser correctamente interpretados, pero de manera incompleta, o no suficientemente interrelacionados con otros resultados), además de que el término “adecuadamente” remite, necesariamente, a una valoración subjetiva, y por tanto variable, entre los distintos potenciales evaluadores.
Por último, respecto al uso propuesto del conjunto de los indicadores, quisiéramos plantear dos observaciones. La primera, que ya hemos avanzado, es que se pretenda utilizar el cumplimiento de los mismos para evaluar “las revistas” y no los artículos, dado que muchas de las publicaciones periódicas incluyen artículos de distinto tipo, incluyendo artículos teóricos, experiencias de innovación docente, etc. Dependiendo del perfil de las revistas analizadas, podemos encontrarnos que en algunos casos quedan excluidos del análisis propuesto de indicadores de investigación empírica más de la mitad de los artículos publicados, por lo que difícilmente podemos generalizar los resultados a toda la revista.
La segunda objeción se refiere a la denominación de la propuesta de categorías de evaluación para las revistas, en la que se habla de cuartiles. Este término tiene una definición precisa en el ámbito matemático: “Valor que divide un conjunto ordenado de datos estadísticos de forma que un porcentaje de tales datos sea inferior a dicho valor” (definición del diccionario de la Real Academia Española; el subrayado es nuestro). La utilización del término cuartil en este contexto (a priori, y no a posteriori) introduce una confusión entre evaluación referida al criterio y evaluación referida a la norma (Hambleton, 1997). Hablemos de categorías jerárquicas, pero dejemos el término cuartil (que tanto arrastra de por sí) para agrupar porcentajes de casos, no cumplimiento de grupos de criterios.
En definitiva, la propuesta de Rodríguez-Sabiote (2017) nos parece un muy interesante punto de partida para crear una herramienta que nos ayude a los editores a perfilar mejor las exigencias que hemos de plantear a los manuscritos en los casos de artículos de investigación empírica de enfoque cuantitativo. No debería ser difícil ampliarlo un poco más (o adaptarlo, caso de utilizar instrumentos diferentes o con apartados intercambiables) para cubrir también otras investigaciones empíricas planteadas desde otros paradigmas. La opinión y las aportaciones de otros editores, de revistas con perfiles bien diferentes, puede ayudar a ir dando forma a una herramienta con gran potencial. Damos por tanto la bienvenida a la interesante propuesta y animamos los editores (de Aula Magna 2.0, pero también a los demás) a hacer aportaciones al respecto.
Referencias bibliográficas:
Dávalos, A. L. (2005). Una perspectiva histórica del Annus Mirabilis 1905. Revista de Enseñanza de la Física, 18(1), 9-16.Diestro Fernández, A; Ruiz-Corbella, M. & Galán, A. (2015, octubre, 23). Aula Magna 2.0. Revistas Científicas de Educación en Red. Aula Magna 2.0. [Blog]. Recuperado de:https://cuedespyd.hypotheses.org/665
Hambleton (1997). Criterion-refered Measurement. En J.P. Keeves (ed.) Educational research, methodology, and measurement: an international handbook (pp.719-725), 2nd edition. Oxford: Pergamon.Husén, T. (1997). Research Paradigms in Education. En J.P. Keeves (ed.) Educational research, methodology, and measurement: an international handbook (pp.16-21), 2nd edition. Oxford: Pergamon.Mengual, S. & Aliaga, F. (2017). Pre-prints: nuevas oportunidades para autores y publicaciones periódicas. Aula Magna 2.0. [Blog]. Recuperado de:http://cuedespyd.hypotheses.org/2816
Rodríguez-Sabiote, C. (2017). Propuesta de indicadores de calidad metodológica para la valoración y clasificación de revistas de investigación. Aula Magna 2.0. [Blog]. Recuperado de: https://cuedespyd.hypotheses.org/3090
Cómo citar esta entrada:
Aliaga, F. (2017). Análisis de una propuesta de indicadores de calidad metodológica para la valoración y clasificación de revistas de investigación. Aula Magna 2.0. [Blog]. Recuperado de: http://cuedespyd.hypotheses.org/3163

Tomado de Aula Magna 2.0 con permiso de sus editores

sábado, 18 de noviembre de 2017

Estar informado (semanal - 18/11/2017)

CUED. El conocimiento en las aulas: dogma de fe

CUED. ¿Algunas razones por las que interesa (o no) la lectura de revistas científicas... | https://t.co/CswRRTUbfZ

CUED ¿Están formados los profesores para atender a los más capaces? | http://sco.lt/59dxi5 

CUED: Recursos para una educación STEAM y un aprendizaje por proyectos  | https://t.co/ZdYiiS5Jvj

Building an Edtech Ecosystem in your Classroom | https://t.co/VdKdOueaD2

35 Psychology-Based Learning Strategies For Deeper Learning | https://t.co/tHxOcytaeY

El conocimiento en las aulas: dogma de fe | https://t.co/fI79Kh0uQS

4 Great Search Extensions for Teachers and Educators | https://t.co/XCXX86YahG

El futuro del “Big Data” en Ciudades Emergentes | https://t.co/5EfXjRr4CB

Nuevo número de Estudios sobre Educación | https://t.co/5zx91MzxqN

#AECT17 Reflections | https://t.co/NhOaPYMGnP

The Real Goal of Open Educational Resources | https://t.co/5MmtEgPo15

Educação e inovação, nossos maiores desafios | https://t.co/szZs1vXCNV

Evento virtual sobre tecnologias aplicadas à educação recebe inscrições de moderadores | https://t.co/9xAlflllzv

3 Tools for Creating Digital Portfolios | https://t.co/XflmmK32LB

oaDOI: El DOI de las versiones en abierto de los artículos | https://t.co/M7HjhgpOSF

Las 9 tareas del Machine Learning según sus algoritmos | https://t.co/fBlqOS1EBT

9 sitios para crear mapas mentales en línea | https://t.co/IvbBtcEinA

Diseño de una secuencia didáctica a partir de una situación-problema. | https://t.co/BG1YK8ilfw

Undergraduate Students and Technology 2013 [INFOGRAPHIC] | https://t.co/hr5YfbxpPS

Authentic Learning in Online Courses | http://sco.lt/7BWmqf 

How To Teach Online - MOOC - Week 1 | http://sco.lt/5UZsYL 

What are you waiting for? Start a MOOC today! | https://t.co/lMqrmy6KaV

Futuro de los sistemas y ambientes educativos mediados por las TIC | https://t.co/YIIeNVogg1

Teorías y modelos sobre el aprendizaje en entornos conectados y ubicuos. Bases para un nuevo modelo teórico a partir de una visión crítica del “conectivismo” | ZAPATA-ROS | https://t.co/f9VO3TvjF2

How to Increase Your Traffic Through Content Translation | https://t.co/0tKxreqzSJ

My Activity ¿cómo borrar lo que Google sabe de ti? | https://t.co/piSF7C8gCo

Mensalidade média de universidade cai 5,6% | https://t.co/2DkID3RnmP

Some of The Best Tools for Creating Video Lessons | https://t.co/mXrGIHsnA3

5 Good Interactive Guides from Apple to Help Teachers Integrate Coding in Their Teaching via Educators Technology | https://t.co/SsKMMrOIIS

Análisis | La economía digital podría aumentar la brecha salarial entre hombres y mujeres | https://t.co/PSonNW0gfd

La Química en Educación | https://t.co/9AiO9da7rO

9 New TED Ed Videos to Use with Students in Class | https://t.co/C72ojpC5wi

Estudio sobre Flipped Learning a nivel mundial | https://t.co/DAyoMBonQv

5 mitos sobre Flip Teaching que debes conocer | https://t.co/gpJVuSuH1D

La Agencia Española de Protección de datos presenta nuevos materiales para ayudar a c... | https://t.co/q61xINR4Sd

Recursos digitales autónomos mediante realidad aumentada | Cubillo Arribas | RIED. Re... | https://t.co/58vQwlmyQs

LA EDUAPP DE LA SEMANA | Agenda Escolar | https://t.co/mFNsezista

Teaching Adult Learners: 5 Things Teachers Need to Know | https://t.co/5VIgLgC0HB

5 tech trends influencing student engagement by Jessica Leigh Brown | https://t.co/qIQMhs7qqU

Different Approaches To Using Student Blogs And Digital Portfolios | https://t.co/c28zjzpaQQ

El uso y la repercusión de la Gamificación en el Trabajo Colaborativo en la Ed... | https://t.co/3lcR2ld98K

Decálogo para la CIVERCONVIVENCIA Positiva | https://t.co/NSRQyvChy8

This is What Powerful Learning Looks Like: Students Share Their Stories - Digital Pro... | https://t.co/jgIDnXX7Pt

There is a global learning crisis. Our young people deserve better skills | https://t.co/d6FR4dWFNX

Myanmar once had one of Asia's best education systems. Here's how it can get back to the top | https://t.co/Vrtbn99pjj

Augmented reality system helps surgeons tackle tumours | https://t.co/qPNzSUMaSy

jueves, 16 de noviembre de 2017

El conocimiento en las aulas: dogma de fe

Escribe Ángel Fiallo
Algunas veces la docencia es similar a la religión. El conocimiento que se transmite es la verdad y se exige al alumnado que usen la fe para creer en ella. El profesorado es al mismo tiempo evangelizador y juez. Predica la verdad y también decide quién la ha asimilado de forma correcta.
Pensándolo bien este método es efectivo, sencillo y cómodo para el alumnado. Nada mejor que suponer que es dogma de fe lo que trasmite el profesorado para tener un juicio positivo (por tanto, es efectivo). Seguir las indicaciones y principios que indica el profesorado es sencillo, basta hacer lo que se le indica y, sobre todo para el cerebro, el método es cómodo, muy cómodo, ya que únicamente hay que desarrollar una capacidad cognitiva, “la memorización”.
En este contexto el mejor evangelizador es el que mejor explica la verdad y el mejor juez… hay disparidad de opiniones (para el alumnado es el que más aprueba y para otros es el que más suspende).
Por el contrario, dudar de la verdad absoluta que trasmite el profesorado es causa de herejía. Es arriesgado (a los herejes se les expulsa), es complicado seguir otros procesos distintos a los que se indican (no hay tiempo para hacerlos) y, sobre todo para el cerebro, es costoso, muy costoso, ya que hay que utilizar capacidades cognitivas como conceptualización, pensamiento crítico, análisis, creación, aplicación, ..
Las verdades suelen ser estáticas y, sin embargo, el conocimiento es dinámico, evolutivo, interpretable, adaptable, reorganizable y sobre todo sinérgico (cuanto más se usa y cuantas más capacidades cognitivas utilizamos, mayor se hace).
Debemos enseñar a nuestro alumnado a dudar, a reflexionar, a replantearse las cosas, a no creerse las verdades que transmite el profesorado e incluso a realizar actividades distintas de las establecidas.
El mejor profesorado es aquél que consigue que el alumnado vuelva a su más tierna infancia, esa edad en la que un niño te pregunta cómo se llama ese gran balón blanco que brilla en la noche y cuando le contestas que es la luna, el te pregunta ¿por qué?.
Tomado de Innovación educativa con permiso de su autor

miércoles, 15 de noviembre de 2017

Recursos para una educación STEAM y un aprendizaje por proyectos

Escribe Javier Tourón

"Para saber lo que queremos hacer, tenemos que hacer lo que queremos saber" (traducción libre de Aristóteles). De aquí al aprendizaje basado en la acción hay un paso. Por eso se dice, con acierto a mi juicio, que se sabe cuando se sabe decir; o que el saber se construye en la comunicación.

Todo ello apela, una vez más, a una realidad que es más que obvia para la experiencia subjetiva de cualquiera: "somos protagonistas de nuestro propio aprendizaje"; "aprendemos haciendo" (learning by doing); "nadie puede aprender por nosotros", etc. Otra cuestión, no menor, es que somos protagonistas precarios, necesitados de ayuda, por tanto.

Pero vamos al grano. Como ya señalé en muchas ocasiones, meta estrategias como la enseñanza inversa son tan interesantes, no por nuevas, si no por devolver al proceso de enseñanza-aprendizaje a su propia naturaleza, regresando al alumno al protagonismo que debe tener si quiere realmente aprender. Porque, no lo olvidemos, el aprendizaje es una conquista personal del que aprende y aprender hoy no es solo saber, también implica saber hacer con lo que sabemos.

Esta introducción es para referirme a la educación STEM (STEAM) que tan popular se ha hecho desde hace años, particularmente en los EE.UU., donde la preocupación por el rendimiento en las disciplinas científicas (Ciencias, Tecnología, Ingeniería y Medicina con respecto a otros países les preocupa tanto, por las implicaciones que ello tiene en el desarrollo científico y económico. Por cierto, que en España tenemos un proyecto STEM dirigido a las chicas más capaces, que se está abriendo camino gracias a su interés y novedoso enfoque y al apoyo de diversos partners entre los que se encuentra UNIR. Si no lo conocéis os sugiero seguir el enlace anterior y dedicarle un rato a leer la web donde se explica.

Diversos autores advierten, sin embargo, de que el aprendizaje STEM no debe realizarse de manera aislada, sino interrelacionando las materias y conocimientos y explorando su aplicación a situaciones reales (recordemos el enriquecimiento tipo III del modelo de Renzulli). Aquí es donde se da la mano con el aprendizaje basado en proyectos (PBL). Esta es una metodología muy interesante para todos los alumnos, pero especialmente indicada para los más capaces, como se comprende, y que podría evitarles mucho aburrimiento y pérdidas de tiempo en la escuela, pero también en la Universidad.

A continuación, siguiendo a Mikel Gorman, en su serie de entradas realizadas sobre este particular en su blog, os ofrezco una selección de enlaces a recursos que pueden dar muchas pistas para elevar el aprendizaje y la pasión por el conocimiento de muchos estudiantes. No los he revisado todos (sí he revisado que no haya enlaces rotos), naturalmente, ni su inclusión aquí supone ningún tipo de valoración por mi parte, eso es algo que dejo a cada uno de los lectores. En general, entiendo que es una selección valiosa que cada profesor deberá ponderar y ver en qué medida se puede adaptar a sus necesidades o enfoque pedagógico. De lo que no tengo duda es de que puede servir de inspiración. Quizá este es un claro ejercicio de construcción social del conocimiento y una evidencia más de la relevancia del aprendizaje a través de la red.

¿Me queréis decir cuál es el problema para no diversificar y personalizar el aprendizaje de nuestros alumnos; sí, de los más capaces también?

¡Buena exploración!

Algunos recursos para PBL (en inglés):

Tecnología 
Ingeniería 
Matemáticas

Para ver diversos retos y competiciones, sugeridos por este autor, puedes seguir este enlace.

Recursos para relacionar STEM y STEAM

Una relación de recursos para makers pueden encontrarse desde este enlace.

También recomiendo echar un vistazo a la entrada sobre recursos digitales abiertos que voy actualizando periódicamente. Podéis acceder desde este enlace.

Casi cuando terminaba de redactar esta entrada me llegó en infográfico sobre la educación STEM que incrusto para completar la entrada. No se refiere a España, pero contiene datos que, sin duda, os interesarán.



The Future of STEM Education is Now Infographic
Find more education infographics on e-Learning Infographics

Tomado de Javier Tourón con permiso de su autor.