Information détaillée concernant le cours
Titre | Domaine 2: L’évaluation de programme. Enjeux méthodologiques, sociaux, politiques et épistémologique |
Dates | 24-25 février 2017 |
Responsable de l'activité | Frederic Yvon |
Organisateur(s)/trice(s) | Prof. A. Akkari, unige Prof. L. Mottiez Lopez, unige Prof. B. Wentzel, directeur de l'IRDP et Privat Docent à la FPSE Prof. F. Yvon, unige |
Intervenant-e-s | Prof. L. Aussel, Université Toulouse II-Jean-Jaurès, Prof. F. Pasche Gossin, HEP BEJUNE M. C. Nidegger, SRED |
Description | L’éducation et la formation sont-elles évaluables ? Qu’on le déplore ou non, l’évaluation s’est imposée comme une modalité incontournable de la gestion des programmes de formation (initiale ou continue). L’objectif affiché est bien entendu de s’assurer de la qualité des formations proposées, sous-tendue par des enjeux financiers. Les procédures d’évaluation permettraient de s’assurer de l’adéquation de l’offre et d’identifier des pistes d’amélioration. En tant qu’enseignant, chercheur ou même étudiant dans un programme de formation, tous les acteurs sont concernés par la mise en place de ces évaluations qui s’inscrivent dans un mouvement de reddition de comptes et de régulation par la mesure de la qualité (accountability). Elles nous interpellent comme expert-e-s de méthodologies de recherche (démarche expérimentale, mais pas seulement) et comme membre d’une communauté professionnelle. L’hypothèse sous-jacente à ce mini-colloque est de considérer qu’il n’y a pas d’instrument d’évaluation « neutre » et que ces outils et procédures sont porteurs, parfois à leur insu, d’un engagement épistémologique voire de positions idéologiques qu’il faut pouvoir décoder pour les interpréter. Ce colloque abordera et mettra en discussion cette thématique sous trois angles complémentaires et successifs : - La fabrique des outils de l’évaluation (définition de la qualité, indentification des dimensions pertinentes, choix des indicateurs, formulation des questions et conception des questionnaires et des autres instruments de mesure) - L’adhésion à ces outils d’évaluation, entre tensions et participation (la stratégie est en effet de faire valider les outils de l’évaluation par les acteurs dont les prestations sont évalués, objets et sujets de l’évaluation) - La communication des résultats et leurs usages (les résultats peuvent au final être détournés de leur fonction d’amélioration pour remettre en question le bien fondé du programme, sanctionner des intervenants de ces programmes).
Nous proposons aux participant-e-s de ce mini-colloque de vivre des situations et des dilemmes liées à l’évaluation de programmes : 1. Dans un premier atelier animé par F. Pasche Gossin (HEP BEJUNE), ils et elles seront interpellés par une commande demandant d’évaluer un programme de formation à l’enseignement en emploi. Une mise en situation leur sera proposée pour discuter le choix des questions et s’interroger sur les commandes implicites du commanditaire. Méliné Zinguinian, doctorante à l’Université de Lausanne et membre de l’UER AGIRS (HEP Vaud) sera discutante pour cet atelier. 2. Dans un deuxième atelier proposé par L. Aussel (Uni. Toulouse II) et co-animé avec Lionel Dechamboux (EReD-UNIGE), les participant-e-s seront confrontés à la proposition d’un dispositif collaboratif visant à évaluer un dispositif d’insertion professionnelle. L’étude de cas soumise permettra de s’interroger sur les tensions possibles d’une participation encouragée. 3. Le troisième atelier animé par C. Nidegger (SRED) en collaboration avec Sonia Revaz (GGAPE-UNIGE) présentera la réception et l’interprétation des résultats du Programme international de suivi des acquis des élèves (PISA), en particulier en Suisse. On simulera une conférence de presse au cours de laquelle les participant-e-s auront à présenter certains résultats de l’enquête PISA en Suisse romande. 4. Une table-ronde conclusive animée par B. Wentzel (IRDP) donnera la parole aux jeunes chercheurs et chercheuses pour mettre en débat les enjeux méthodologiques, socio-professionnels, politiques et épistémologiques d’une évaluation « scientifique » d’un programme de formation. Le débat ouvrira sur une réflexion élargie de ces enjeux qui traversent les processus d’évaluation quel qu’en soient finalement les objets. Programme et descriptifs: >> télécharger << |
Lieu |
Genève, 24.02 : Matin M1170 / Après-midi M1140 / 25.02 : MR160 |
Information | |
Places | 20 |
Délai d'inscription | 24.02.2017 |