Élaborer et évaluer les programmes d'intervention psychosociale
eBook - ePub

Élaborer et évaluer les programmes d'intervention psychosociale

  1. 306 pages
  2. French
  3. ePUB (adapté aux mobiles)
  4. Disponible sur iOS et Android
eBook - ePub

Élaborer et évaluer les programmes d'intervention psychosociale

Détails du livre
Aperçu du livre
Table des matières
Citations

À propos de ce livre

En une série d'étapes liées les unes aux autres par un modèle intégrateur, les auteurs proposent un regard sur les programmes d'intervention mis en place dans les institutions ayant le mandat d'intervenir sur le plan psychosocial.

Foire aux questions

Il vous suffit de vous rendre dans la section compte dans paramètres et de cliquer sur « Résilier l’abonnement ». C’est aussi simple que cela ! Une fois que vous aurez résilié votre abonnement, il restera actif pour le reste de la période pour laquelle vous avez payé. Découvrez-en plus ici.
Pour le moment, tous nos livres en format ePub adaptés aux mobiles peuvent être téléchargés via l’application. La plupart de nos PDF sont également disponibles en téléchargement et les autres seront téléchargeables très prochainement. Découvrez-en plus ici.
Les deux abonnements vous donnent un accès complet à la bibliothèque et à toutes les fonctionnalités de Perlego. Les seules différences sont les tarifs ainsi que la période d’abonnement : avec l’abonnement annuel, vous économiserez environ 30 % par rapport à 12 mois d’abonnement mensuel.
Nous sommes un service d’abonnement à des ouvrages universitaires en ligne, où vous pouvez accéder à toute une bibliothèque pour un prix inférieur à celui d’un seul livre par mois. Avec plus d’un million de livres sur plus de 1 000 sujets, nous avons ce qu’il vous faut ! Découvrez-en plus ici.
Recherchez le symbole Écouter sur votre prochain livre pour voir si vous pouvez l’écouter. L’outil Écouter lit le texte à haute voix pour vous, en surlignant le passage qui est en cours de lecture. Vous pouvez le mettre sur pause, l’accélérer ou le ralentir. Découvrez-en plus ici.
Oui, vous pouvez accéder à Élaborer et évaluer les programmes d'intervention psychosociale par Marc Alain,Danny Dessureault en format PDF et/ou ePUB ainsi qu’à d’autres livres populaires dans Psychology et History & Theory in Psychology. Nous disposons de plus d’un million d’ouvrages à découvrir dans notre catalogue.

Informations

PARTIE 1

HISTOIRE, THÉORIES ET MODÈLES D’ÉVALUATION DE PROGRAMME

1. Des systèmes de classification des modèles d’évaluation de programmes d’intervention psychosociale à une proposition de modèle intégrateur
2. Le développement de l’évaluation de programme

CHAPITRE 1

Des systèmes de classification des modèles d’évaluation de programmes d’intervention psychosociale à une proposition de modèle intégrateur

Les trois phases du cube :

AVANT-PENDANT-APRÈS

Marc Alain
Département de psychoéducation
Université du Québec à Trois-Rivières
L’évaluation, dans le champ de l’intervention sociale et dans son enseignement se cantonne généralement à deux dimensions, soit, d’une part, tout ce qui est du domaine de l’évaluation de la situation qui fait l’objet de l’intervention et, d’autre part, toute la question de l’évaluation de l’intervention elle-même, un bilan qui cible les résultats d’une intervention donnée et qui fournit des indices de l’état d’évolution de la pratique de l’intervenant lui-même. Dans une perspective plus globale, l’évaluation du programme d’intervention dans lequel s’est inscrit l’intervention visée, est, quant à elle, trop souvent laissée qui aux gestionnaires soucieux d’une efficacité essentiellement économique et administrative, qui aux évaluateurs patentés et externes à qui l’on confie le dossier du programme qui « tourne mal » et dont il convient alors de démonter la mécanique en une opération où l’on se soucie de conserver la distance garante d’une neutralité objective (Stufflebeam, 2001 ; Shadish, Cook et Leviton, 1991). C’est d’autant plus le cas maintenant que les économies contemporaines placent l’objectivité et la rentabilité aux premiers rangs des qualités recherchées, et ce, trop souvent au détriment de la reconnaissance des savoirs de l’intervention sociale (Kazi et Rostila, 2002).
Or, ce faisant, c’est la compréhension des acteurs en situation qui se perd, l’expertise tacite que les intervenants sociaux finissent toujours par développer, non pas seulement de leur propre pratique, mais des finalités beaucoup plus larges des programmes dans lesquels leurs interventions s’inscrivent, tout comme celles des autres intervenants, qu’ils soient de leur milieu et des autres milieux concernés, de façon formelle ou informelle (Zuniga, 1994). Les intervenants sociaux sont pourtant mis en contact avec les théories qui sous-tendent l’évaluation de programme (Mercier et Perreault, 2001). C’est généralement lors de la formation initiale et continue que s’effectue l’enseignement de l’élaboration et de l’évaluation des programmes d’intervention. En effet, les cursus universitaires développés afin de former les intervenants sociaux ici, au Québec, et ailleurs en Amérique et en Europe tentent d’intégrer d’une manière plus ou moins extensive le champ de l’évaluation de programme. Le problème tient ici au fait que les éléments constituant les modalités et méthodologies de l’évaluation de programme sont, d’une part, souvent très complexes à maîtriser, sans compter que, d’autre part, ils sont souvent donnés par des spécialistes du domaine, ceux-là même qui deviennent, une fois leur enseignement terminé, les évaluateurs externes et neutres à qui on confie les dossiers et mandats d’évaluation. En d’autres termes, l’évaluation de programme constitue, pour la plupart des intervenants, qu’ils soient en cours de formation ou sur le terrain, une discipline plus ou moins obscure et loin de leurs premières préoccupations. Qu’il s’établisse, en conséquence, une méfiance plus ou moins ouverte à l’endroit de l’évaluation de programme se comprend d’autant mieux (Scriven, 1993).
Ce sont les protocoles d’évaluation participative et collaborative (O’Sullivan, 2004 ; Bernoux, 2004), connus aussi sous l’appellation de protocoles d’évaluation de quatrième génération (Guba et Lincoln, 1989) qui devaient pourtant modifier cet état de fait. Or, bien que les fondements théoriques de ces protocoles soient établis depuis maintenant plus de 15 ans (Guba, 1990), il est toujours surprenant de constater que l’on se situe encore beaucoup au plan des principes et très peu sur ceux de l’application concrète (Lay et Papadopoulos, 2007) et, surtout, de l’implication active des intervenants sociaux au cœur de l’évaluation des programmes dans lesquels ils œuvrent, alors qu’il n’est pourtant plus à démontrer la pertinence et l’importance de leur point de vue (O’Sullivan et D’Agostino, 2002).
Une partie de cette difficulté de faire passer l’évaluation collaborative de la théorie à la pratique tient peut-être encore aujourd’hui à la difficulté de cerner aussi clairement que possible le rôle de l’évaluateur et de son travail. Les théoriciens de l’évaluation plus classique, et l’on pense tout particulièrement à Stufflebeam (2001) et à Stufflebeam et Shinkfield (2007), ont assez clairement établi la distance qui existe entre ce que l’on attend des administrateurs et gestionnaires responsables et, surtout, imputables de la bonne marche d’un programme et de l’institution qui l’héberge, d’une part, et ce que l’on attend des évaluateurs, d’autre part. En effet, de ces derniers, on attend – même encore maintenant – un jugement éclairé, un avis sur ce qui va et sur ce qui ne va pas. Cette distinction étant établie, nous ne sommes malheureusement pas tellement plus avancés quant à savoir comment l’évaluateur va pleinement jouer son rôle. Car c’est ici précisément que les oppositions de principe sont encore les plus criantes, les débats occupant encore régulièrement la table des matières des revues spécialisées. Et il ne s’agit plus ici d’une question d’approches et de méthodes, le consensus étant à peu près établi maintenant que le quantitatif et le qualitatif ont tous deux leur place en fonction de leurs avantages et inconvénients respectifs. Non, le débat est plus profond et, jusqu’à un certain point, il revient à Guba et Lincoln de l’avoir lancé, en proposant une lecture plutôt radicale de ce que les évaluateurs des trois premières générations, pour reprendre leur terminologie, adoptaient comme position. À partir du moment où l’évaluateur, comme le proposent les deux théoriciens, dépend de sa relation avec les promoteurs et les gestionnaires du programme évalué pour émettre ses recommandations et son point de vue, force nous est de reconnaître la possibilité que l’évaluation soit teintée, l’adhésion aux principes éthiques des associations d’évaluation ne constituant en tout et pour tout que des garanties théoriques.
Bien sûr, Guba et Lincoln se sont alors positionnés, à la fois sur le plan de l’approche méthodologique, un débat qui, comme on l’a vu, est aujourd’hui quelque peu dépassé, et sur le plan du rôle de l’évaluateur. À notre sens, c’est cette dernière prise de position qui est au cœur du problème ; voici de quelle manière. Pour Guba et Lincoln, à partir du moment où l’évaluateur externe est contraint à l’entretien d’une relation privilégiée avec les gestionnaires et promoteurs du programme, il ne serait plus alors en mesure de prendre en considération les points de vue et les perspectives opposées que l’on est beaucoup plus susceptible de rencontrer chez les intervenants, voire les clients du programme. Guba et Lincoln vont du même souffle reconnaître que si l’évaluateur ne peut être tout à fait neutre lorsqu’il entretient une relation privilégiée avec les gestionnaires, il ne peut pas l’être non plus s’il décide d’adopter la perspective des intervenants et des clients. C’est donc une perspective franchement phénoménologique que nos deux auteurs vont mettre de l’avant. Ici, l’évaluateur ne jouera globalement qu’un rôle de miroir des interprétations diverses et, éventuellement, celui de catalyseur d’un rapprochement des positions et des points de vue. En d’autres termes, il est très clair que ce n’est pas son jugement à lui, comme évaluateur, que l’on recherche, mais ce qu’il pourrait faire émerger des sens que tous les acteurs en situation vont faire ressortir. Pour remettre les choses dans une perspective plus pratique, deux défis se posent : celui, tout d’abord, d’en arriver à déterminer un tel consensus, en termes de temps, de patience, de capacité d’écoute et d’introspection, pour ne nommer que ces seuls éléments, et celui, ensuite, de réaliser la congruence entre les éléments subjectifs et toute la série des éléments très objectifs, qui illustrent des réalités concrètes et mesurables de ce que fait ou non un programme et qui ne sont pas, n’en déplaisent aux évaluateurs de la quatrième génération, des objets qui n’appartiennent qu’aux promoteurs et gestionnaires des programmes.
Si, donc, le modèle proposé par Guba et Lincoln achoppe à réaliser la congruence des éléments subjectifs et des éléments objectifs du programme à évaluer, se pourrait-il toutefois que, depuis la publication du Fourth Generation Evaluation, quelque théoricien du domaine soit parvenu à penser la quadrature du cercle de manière pratique et directement utilisable ? Mettons tout de suite la table en nous donnant quelques balises en passant rapidement en revue les systèmes de classification des modèles d’évaluation ; cet exercice nous permettra d’autant mieux d’en arriver alors avec une proposition concrète.

1. QUELQUES CLASSIFICATIONS DES MODÈLES D’ÉVALUATION DE PROGRAMME

La classification des différents modèles d’évaluation de programme semble être devenue, depuis un peu plus d’une décennie maintenant, un exercice à peu près obligatoire pour quiconque proposera un modèle différent. Trop souvent, d’ailleurs, une telle classification va permettre à son auteur de démontrer en quoi l’avenue proposée permet de combler les lacunes des modèles précédents ; à ce titre, Guba et Lincoln (1989), mais aussi Stufflebeam et Shinkfield (2007) jusque dans une certaine mesure, demeurent des cas types de ces tendances. En tentant d’éviter de retomber nous-mêmes dans ces ornières, nous ferons ici un court survol des cinq classifications qui nous semblent bien résumer les diverses manières de réaliser cet exercice ; ce faisant, il n’en sera que plus facile alors de proposer non pas ici un énième modèle, mais ce qui va plutôt tenter de se présenter comme une intégration de ce que les grands travaux théoriques en évaluation de programme ont permis d’établir, sur les plans objectifs/subjectifs, et formatifs/sommatifs.

1.1. Une perspective plus historique, celle de Rossi, Lipsey et Freeman (2004)

Rossi, Lipsey et Freeman distinguent quatre périodes dans le développement des modèles d’évaluation de programme, chacune étant tributaire à la fois des lacunes de la précédente et de contingences plus historiques : 1) de la Révolution industrielle jusqu’aux années 1930 lorsque l’État contemporain pren...

Table des matières

  1. Couverture
  2. Copyright
  3. Introduction et remerciements
  4. PARTIE 1 HISTOIRE, THÉORIES ET MODÈLES D’ÉVALUATION DE PROGRAMME
  5. PARTIE 2 DE L’ÉVALUATION DES BESOINS À LA CONCEPTUALISATION D’UN PROGRAMME D’INTERVENTION, LA PHASE AVANT
  6. PARTIE 3 DE L’IMPLANTATION D’UN PROGRAMME D’INTERVENTION À LA MESURE DES PREMIERS EFFETS PRODUITS, LA PHASE PENDANT
  7. PARTIE 4 DU BILAN POSTIMPLANTATION À LA MESURE DES RÉSULTATS ET EFFETS À COURT, MOYEN ET LONG TERMES D’UN PROGRAMME D’INTERVENTION, LA PHASE APRÈS
  8. Notices biographiques
  9. Quatrième de couverture