Relire les projets «tic et innovation pédagogique» : y a-t-il un pilote à bord, après Dieu bien sûr …








télécharger 181.14 Kb.
titreRelire les projets «tic et innovation pédagogique» : y a-t-il un pilote à bord, après Dieu bien sûr …
page8/10
date de publication19.11.2017
taille181.14 Kb.
typeDocumentos
b.21-bal.com > documents > Documentos
1   2   3   4   5   6   7   8   9   10

5.3 L’approche méthodologique


Les trois axes de travail de notre mandat, activités de soutien, état des lieux et cadre d’évaluation des caractéristiques innovatives de l’intégration des TIC sont étroitement inter-reliés et s’alimentent mutuellement. Ils représentent une excellente combinaison d’objectifs et de stratégies qui demande de recourir à l’action, à la formation et à la recherche pour mener à terme un tel mandat. Aucune de ces dimensions ne peut être amputée sans mettre en sérieux péril la qualité des résultats des autres axes.

5.3.1. Une démarche centrée sur les acteurs


La méthodologie adoptée par IntersTICES est une approche de soutien de proximité inspiré d’une démarche méthodologique de type recherche-action-formation (Charlier et Charlier, 1996 ; Viens et al. 2001, Charlier, Daele et Deschryver, 2002). Elle intègre recherche et soutien pédagogique pour un enrichissement mutuel et propose de faire de l’ensemble des acteurs, des partenaires de la réalisation de la recherche, des actions, des formations et des interprétations que nous donnerons aux situations rencontrées. En contre-partie d’une approche de réforme, elle ne vise pas simplement d’offrir un service de consultation-support pédagogique au projet mais bel et bien à les accompagner dans le développement des aspects pédagogiques innovateurs de leur dispositif de formation en ligne et à développer leur culture du e-learning. Elle ne considère par non plus les acteurs comme des sujets à observer et à transformer selon un modèle standardisé mais plutôt comme acteurs qui participeront à part entière à l’ensemble des décisions, actions et construction de sens qui auront lieu. Nous nous situons donc bel et bien dans une perspective d’énovation et définissons l’innovation en termes de valeur (r)ajoutée pour l’acteur, valeur qui insistons encore ici, sera définie par lui.

Voyons maintenant plus en détail la mise en œuvre de notre démarche méthodologique. Elle est planifiée en terme de cycles itératifs qui permettent d’approfondir et de raffiner les analyses. En synthèse, ces cycles sont constitués de verbalisations par les acteurs (explicitation et élaboration d’un scénario pédagogique et des facteurs en jeu), de discussions sur les problèmes où les pistes de solution sont enrichies par des apports théoriques et pratiques émanant de la recherche dans le domaine, d’un élargissement des discussions par des échanges au sein de la communauté des projets dont l’objectif est la co-construction de sens et la régulation des activités de formation-accompagnement, le tout résultant notamment dans la co-gestion de formations, de séminaires et d’ateliers de travail cogérés. De tels cycles, basés sur une accentuation des activités méta-cognitives se répètent et s’alimentent afin de couvrir l’ensemble des problèmes rencontrés. La figure 1, présente une synthèse d’un tel cycle d’intervention. Notons ici que le point de départ pour nous a été l’analyse de besoins et l’évaluation formative des dispositifs. Cette situation s’est imposée vue l’arrivée tardive d’IntersTICES dans la vie des projets. Idéalement, le cycle démarrerait dès la formulation du projet et se poursuivrait tout au long du processus. Précisons finalement que son efficacité dépend en grande partie de la qualité des interventions méta-cognitives générées et soutenues par les activités proposées ainsi que de l’investissement personnel dont font preuve les acteurs. Nos activités de soutien constituent en fait des appels à la réification des médiations du dispositifs et à la réflexion critique qui permet d’identifier des points de rupture entre les représentations interne et ce qui est médiatisé, entre la vision idéale et l’adaptation aux conditions rencontrées dans la vraie vie.



Figure 1. Explicitation d’un cycle type d’intervention

5.3.2. A titre d’exemple : les séminaires de formation


Afin de donner une vision plus concrète de notre démarche, nous proposerons ici la description des activités de formation réalisées en collaboration avec les partenaires des projets19. Ces formations constituent l’aboutissement d’un certain nombre de cycles d’intervention au cours desquels des activités d’accompagnement de proximité auprès des projets ont été réalisées :

  • participation à des rencontres d’orientation ou de gestion des projets ;

  • co-évaluation des modules réalisés ;

  • recherche de solutions à des problèmes spécifiques (ergonomie, structure de contenu, choix des objectifs/outils/stratégies pédagogiques, gestion multi-universités, tutorat, …) ;

  • production de cadres de développement pédagogique (guides et prototypes) ;

  • production de scénarios, d’outils d’évaluation et de guides (apprenants, enseignants, tuteurs) ;

  • co-organisation d’activité de formation et de soutien contextualisé ;

  • diffusion d’une culture TIC au sein des équipes ;


Les séminaires réalisés ont impliqué une panoplie d’acteurs du CVS, quelques membres du comité exécutif, quelques professeurs, plusieurs coordonnateurs de projet, des assistants et des développeurs. Une communauté de pratique s’est développée autour de l’organisation des séminaires et plus d’une vingtaine de personnes participent cette communauté virtuelle par l’entremise des groupes de discussion Yahoo. Ce sont principalement les coordonnateurs des projets et quelques assistants responsables du développement qui constituent le noyau de la communauté IntersTICES20. Il s’agit là d’une occasion de formation et de soutien de proximité qui permet de cibler très directement les objets mis en évidence par les projets comme prioritaires et selon une perspective qui leur convient puisque l’activité est la leur. Par exemple, nous avons ainsi réalisé plus de 7 rencontres de la communauté IntersTICES pour organiser et faire le bilan de cette journée. En plus, nous avons accompagné dans la préparation de leur atelier les 4 projets qui ont décidé de présenter leur travaux. Ce séminaire est donc une occasion de travailler en collaboration étroite avec les équipes sur leurs objets premiers de préoccupation. Deux séminaires ont eu lieu à ce jour.

Le séminaire « Innovation et e-learning : vers une pédagogie active » tenu à Fribourg le 2 octobre 2002 en collaboration avec le Centre NTE et l’École Polytechnique Fédérale de Lausanne (EPFL), auquel près de 70 personnes ont participé, a été évalué très positivement par les participants. Les objectifs de ce séminaire, développés en collaboration avec les projets, rappelons-le sont :

  1. Favoriser le développement d'une vision commune des approches pédagogiques actives;

  2. Situer globalement les impacts et contraintes de ces approches pour les projets CVS;

  3. Envisager des formations pour les accompagnateurs d'innovation et les professeurs;

  4. Inviter les projets à se questionner / se positionner face aux approches actives en identifiant les points d'intégration ou de rupture, les succès, problèmes et solutions envisagées par des exemples de projets, discutés en petits groupes.


Le séminaire « Evaluation, Innovation et e-learning : pour une évaluation des aspects pédagogiques innovateurs des projets CVS et de leurs impacts sur les enseignants et les apprenants» tenu à Battelle (UNIGE) le 09 avril 2003, auquel près de 50 personnes ont participé, a lui aussi été évalué très positivement par les participants. Cette journée a été organisée par la communauté IntersTICES en continuité au premier séminaire. Nous y avons aussi impliqué les responsables des services d’évaluation des principales universités romandes (Genève, Lausanne, EPFL) afin de partager avec eux préoccupations et visions respectives des développements requis pour que l’évaluation des cours prenne en compte les spécificités du e-learning. Quatre projets du CVS y ont présentés leurs pratiques d’évaluation aux collègues et de ce fait apporté une contribution importante à leur équipe par la formalisation requise pour la présentation et aux autres équipes par le partage d’idées et d’outils.

En bref, nous avons intégré accompagnement, évaluation et actions de formation pour d’abord soutenir le développement d’une culture e-learning et dans un deuxième temps, identifier des aspects opérationnels des dispositifs de formation à améliorer. Le tout, en collaboration étroite avec les acteurs des projets.

5.3.3. Impact sur le développement du cadre général d’évaluation (axe 3)


La démarche dispositive que nous avons adoptée, n’a pas seulement permis d’offrir des activités de formation adaptées aux acteurs et à leur contexte, elle a aussi permis d’identifier plusieurs facteurs affectant l’intégration pédagogique des TIC et de les organiser dans un modèle systémique qui offre un cadre général d’évaluation (Viens, 2003). Ce modèle est à la fois être orienté vers la compréhension des facteurs en jeu et vers l’élaboration d’actions de soutien auprès des projets de façon à stimuler leur nature innovatrice. La démarche de travail par cycle, que nous avons déjà exposée, s’articule à ce modèle et l’utilise pour en faire un cadre non seulement explicatif des facteurs identifiés mais pour l’opérationalisé dans la planification de nos actions.

Au fil de nos activités avec les projets, nous avons circonscrit, en collaboration avec eux, plusieurs concepts dont les suivants : évaluation, innovation pédagogique, e-learning, dispositif de formation, soutien pédagogique, compétences, recherche action-formation, plus value pédagogique de l’utilisation des TIC, accès, feed-back/interactions, individualisation de l’enseignement, autonomie de l’apprenant, co-élaboration des connaissances et/ou compétences, méta-cognition, apprentissages contextualisés, etc. Nous avons alimenté les discussions et en y intégrant des recommandations et perspectives proposées par la littérature du domaine. Ces discussions ont permis de cibler les thématiques de séminaires et d’enrichir la culture e-learning des acteurs et de certains de leurs pairs puisqu’ils jouaient au sein de leurs équipes respectives le rôle d’agent de diffusion. Dans un processus d’interaction entre nos activités de recherche précédentes (Viens & Amélineau, 1997 ; Viens & al. 2001 ; Viens, Peraya & Karsenti, 2002 ; Viens & al. 2003 ; Charlier & Peraya,2002), une revue de littérature, l’analyse des entrevues avec les équipes et les observations/discussions sur le terrain, nous avons organisé les différents facteurs relevés dans un modèle organisateur.

Tout comme les acteurs dans leur relations aux différentes dimensions de leur environnement, le modèle émergent de nos travaux est systémique et propose de prendre en compte les 3 dimensions suivantes : le contexte sociétal (dont le fait d’être un projet du CVS), le contexte institutionnel (et multi-institutionnel), et le dispositif de formation. Cette dernière dimension est abordée plus spécifiquement sous trois perspectives, les aspects technologiques, les aspects pédagogiques et le processus de développement du dispositif. Précisons ici que la prise en compte du processus de développement adopté par l’équipe de production constitue un des premiers facteurs de succès des projets et qu’il n’est pas pris en compte par les autres approches ou modèles d’évaluation. Voilà un exemple de contribution importante de l’adoption d’une approche systémique d’évaluation.

L’ensemble des dimensions identifiées permet d’organiser et de mettre en relation des facteurs qui de prime abord ne semblent pas inter-reliés. Dans un deuxième temps, on peut ainsi planifier des actions plus efficaces auprès des projets. De plus, c’est à travers les acteurs (apprenants, enseignants, assistants, tuteurs, développeurs, direction départementales, etc.) que le système ou dispositif de formation prend vie et c’est par l’entremise de ces mêmes acteurs que nous pouvons l’influencer. Comme le suggère la figure 2, notre modèle donne donc une très grande place aux acteurs, à leurs représentations, leurs habiletés/ressources, leurs attitudes et leur pratiques. C’est en les questionnant sur ces 4 objets en fonction des facteurs identifiés pour chaque dimension du modèle que nous pouvons identifier les points de rupture et les problèmes qui demandent des actions spécifiques.



Figure 2.Une vision systémique du modèle d’évaluation pour l’action.

Ces questionnements nous ont permis d’identifier des facteurs provenant de plusieurs dimensions que nous avons organisées dans une structure systémique à trois niveaux correspondant aux classiques 1- niveau micro, les éléments relatifs au dispositif de formation médiatisé en soi ; 2- au niveau meso, le contexte institutionnel dans lequel est développé/implanté le dispositif de formation ; 3- niveau macro, le contexte sociétal qui prévaut à travers les différentes instances comme l’organisme subventionnaire, les autres participants de la société directement et indirectement impliqués, comme par exemple les entreprises (leurs attentes et besoins), les ministères, etc.

La figure 3 dresse un portrait schématique de cette structure. Notons tout de suite qu’elle est alimentée par les aspects humains qui lui donnent vie. Le lecteur intéressé à mieux saisir les niveaux et dimensions impliquées, et à faire des liens entre les dimensions du modèle et les facteurs rencontrés sur le terrain, peuvent consulter le rapport de l’année 2002 (Viens, Bullat-Koelliker, Deschryver & Peraya, 2003) qui présente plus en détails les résultats de nos travaux.



Figure 3. La structure des différents niveaux de facteurs du modèle.

Rappelons que ce modèle est en développement et ne constitue pas encore une source généralisable d’analyse et d’intervention. Il constitue par contre un bon point de départ pour identifier et organiser les facteurs affectant l’innovation pédagogique avec les TIC et pour planifier des interventions qui la soutiendront.

5.3.4. Le modèle d’évaluation-action en question


Une limite de ce modèle, relevée par des collègues experts du domaine lors d’une journée de séminaire sur l’évaluation des dispositifs de formation e-learning (Viens & Grund, 2003), réside dans la complexité du modèle et donc dans les difficultés de son utilisation par les acteurs. , Aussi un modèle plus ciblé sur le dispositif lui-même tel le modèle CIELT conviendrait-il mieux pour obtenir des résultats à court terme et pour être utilisé par les acteurs dans l’amélioration de leur propre dispositif. Avant de répondre à cette critique, présentons succinctement cet autre modèle.

Il s’agit d’un modèle d’évaluation développé au sein du CVS par un groupe alémanique de l’université de Zurich (Grund, Windlinger, & Grote (2003). Ce n’est pas le groupe qui détient un mandat similaire au nôtre dans le cadre du CVS mais une équipe de recherche qui offre un soutien local à des projets CVS alémaniques. L’acronyme CIELT tient pour les termes : « Concept », « Interdisciplinary », « Evaluation », « Learning » et « Tools ». Le concept d’évaluation interdisciplinaire des outils d’apprentissage a donné lieu à une méthodologie d’évaluation qui a pour objectif principal de soutenir des équipes hétérogènes dans l’identification d’objectifs de développement de leur dispositifs de formation. Il veut apporter une réponse aux limites des méthodes/démarches d’évaluation courantes qui focalisent presque uniquement sur les facteurs d’utilisabilité et la standardisation de facteurs. A l’instar de Malorny & Langner (1997), cités par les auteurs, ces derniers assument que la prise en compte de concepts psychologiques peut contribuer à développer un « design » coopératif (entre les acteurs du dispositif) d’évaluation des outils technologiques d’apprentissage. En termes pratiques, les acteurs du dispositif, essentiellement les membres de l’équipe de production et d’implantation, sont invités à une rencontre initiale portant sur l’établissement des buts et des contraintes de l’évaluation Une panoplie d’outils est utilisée pour guider les acteurs dans le développement de leur méthodologie d’évaluation, à partir d’une pyramide de conditions préalables à rencontrer (stabilité du système/accessibilité, réception positive de l’utilisateur, utilisation appropriée en fonction des visées pédagogiques, implantation à long terme), Trois étapes constituent l’essentiel des étapes suivantes de préparation qui fait une large part à la scénarisation pédagogique : la définition des caractéristiques du système, le test en cours de prototypage et l’évaluation en profondeur du dispositif. Quatre acteurs offrent les perspectives principales qui sont prises en compte dans le développement et l’implantation du dispositif d’évaluation : les enseignants, les apprenants, les techniciens et l’industrie. Pour le design du dispositif d’évaluation, on table sur les aspects suivants : les concepts didactiques, l’intégration curriculaire, les solutions techniques, le support technique et l’implantation du système. Pour alimenter la collecte de données lors des mises à l’essai, on compte sur les traces informatiques des plates-formes de formation afin d’identifier les usages des apprenants et des recoupements entre eux qui feront apparaître des comportements types des usagers du système. On compte aussi sur des journaux de bord tenus par les tuteurs pour chaque interaction avec les apprenants et sur des questionnaires en ligne Les analyses des interactions entre les tuteurs et les apprenants constituent un exemple de la prise en compte de la perspective de l’apprenant dans l’évaluation du dispositif. Les traces quotidiennes sont analysées en terme de rapidité de réponse, choix de média utilisé, contenu des échanges, qualité des échanges, adaptation des échanges en cours de route et durée des interactions. Ces différents éléments devraient permettre, selon les auteurs, d’estimer la qualité des interactions réalisées au sein du cours. Selon-nous, ils constituent des informations brutes qui doivent être interprétées selon une vision systémique du dispositif plus que selon une vision ciblée uniquement sur l’outil et les usages qui en sont faits. De plus, leur sens doit être négocié entre les acteurs : tuteurs, apprenants et auteurs. Un utilisateur silencieux peux faire un plus grand usage de certains outils comme le forum qu’un utilisateur verbeux qui, par exemple pourrait prendre le forum pour le miroir de ses propres pensées, un occasion de convaincre les autres de ses prouesses intellectuelles.

Il y a beaucoup à dire sur ce modèle d’évaluation qui, en fait, comme notre modèle, pose la question de la participation active des acteurs au développement et à l’évaluation. Tout comme le notre, il offre plusieurs perspectives et demande de prendre en compte plusieurs dimensions. Et finalement, il permet d’accompagner l’équipe de production tout au long du processus. Cependant, l’essence même du modèle diffère et la focalisation est plus ciblée sur les éléments médiatisés du dispositif que sur le dispositif lui-même. La perspective des acteurs est, de plus, réduite à l’usage du dispositif. Là ou nous comptons soutenir l’énovation, ce modèle peut viser l’innovation ou même la réforme. C’est à notre avis la qualité du produit médiatisé (au sens d’outil) qui est la cible des opérations et l’aboutissement ultime de l’évaluation. Le rôle de l’apprenant est celui d’une personne qu’on observe pour identifier les comportements et les comparés aux attentes des auteurs. L’impact d’un tel modèle sera probablement très riche dans une perspective d’amélioration du dispositif mais l’impact sur l’apprentissage et la formation, sur la culture des acteurs ne sera pas selon nous optimale puisque réduits à des dimensions périphériques.

Tout au contraire, notre dispositif cible de façon très explicite la culture des acteurs qui participent au développement et à l’implantation du dispositif médiatisé de formation, et ce tout au long du processus. La culture comme telle en terme de représentations, d’habiletés/ressources, d’attitudes et de pratiques constitue à la fois un moyen de soutenir l’apprentissage et l’aboutissement de cet apprentissage. De plus, dans notre modèle, les acteurs sont au centre du dispositif quelque soit leur statut, ils sont appelés à participer pour définir le dispositifs, et c’est exactement ce que les apprenants font en se l’appropriant à leur façon, en démontrant tels et tels usages. Ils ne sont pas observés mais partie intégrante du dispositif. L’appropriation d’un outil proposé par un auteur n’est pas simplement réussi ou non, il est défini par l’utilisation qu’en fera l’apprenant et cette utilisation témoigne d’une combinaison de cultures, celle de l’apprenant, des pairs, de l’enseignant, etc. Et une non-utilisation de l’outil selon le plan prévu peut être la source de transformations importantes de la culture de l’ensemble des acteurs. Parfois il faut voir dans cette mal-utilisation un besoin de compréhension de l’outil, de sa place dans l’ensemble du dispositif d’apprentissage, une remise en question de la cohérence de son utilisation avec les objectifs, les tâches attendues, et les évaluations. La formation de l’ensemble des acteurs devient donc une priorité de notre modèle.
1   2   3   4   5   6   7   8   9   10

similaire:

Relire les projets «tic et innovation pédagogique» : y a-t-il un pilote à bord, après Dieu bien sûr … iconSuggestion d’activité pédagogique reliée aux tic

Relire les projets «tic et innovation pédagogique» : y a-t-il un pilote à bord, après Dieu bien sûr … iconRésumé de lecture Manuel de recherche en sciences sociales par Mélanie fauvel
«Se tenir informé des acquis de la recherche afin de pouvoir s'engager dans des projets et des démarches d'innovation pédagogique...

Relire les projets «tic et innovation pédagogique» : y a-t-il un pilote à bord, après Dieu bien sûr … iconI une ménagerie à bord
«On vous a trouvé dans une barque, mourant de faim. Le bateau s’appelait la Dame Altière et IL y avait des taches bizarres sur le...

Relire les projets «tic et innovation pédagogique» : y a-t-il un pilote à bord, après Dieu bien sûr … iconTrophée des Grandes Ecoles d’Ingénieur 2000 Catégorie «Innovation Pédagogique»

Relire les projets «tic et innovation pédagogique» : y a-t-il un pilote à bord, après Dieu bien sûr … iconLe scénario pédagogique
«Matière à réflexion» sur la page 118 du manuel de cours, concernant l’hérédité. Après 5 minutes, demander aux groupes de partager...

Relire les projets «tic et innovation pédagogique» : y a-t-il un pilote à bord, après Dieu bien sûr … iconLe scénario pédagogique
«Matière à réflexion» sur la page 118 du manuel de cours, concernant l’hérédité. Après 5 minutes, demander aux groupes de partager...

Relire les projets «tic et innovation pédagogique» : y a-t-il un pilote à bord, après Dieu bien sûr … iconAtelier sur les services d’appui à L’innovation

Relire les projets «tic et innovation pédagogique» : y a-t-il un pilote à bord, après Dieu bien sûr … iconAtelier sur les services d’appui à L’innovation

Relire les projets «tic et innovation pédagogique» : y a-t-il un pilote à bord, après Dieu bien sûr … iconUe ob j e c t I f s du d oss I e r
«Séquence pédagogique» ci-après en répondant aux différentes questions qui vous seront posées…

Relire les projets «tic et innovation pédagogique» : y a-t-il un pilote à bord, après Dieu bien sûr … iconÀ qui de droit et tous les lectrices/teurs
1 Au commencement Dieu créa le ciel et la terre Et Dieu dit : Que la terre se








Tous droits réservés. Copyright © 2016
contacts
b.21-bal.com