Archive

Archive for the ‘Alain BOYER.’ Category

Alain BOYER. L’abandon de l’inductivisme : une voie nécessaire vers la scientificité.

17 février 2012 Laisser un commentaire

« Si l’ordre universel était pleinement objectif ou pleinement subjectif, il serait, depuis longtemps, saisi par nos observations ou énoncé de nos conceptions. Mais sa notion exige le concours de deux influences, hétérogènes quoique inséparables, dont la combinaison n’a pu se développer que très lentement ». (Auguste COMTE. « Système de politique positive, II, p. 34). »

« Du sens commun à la science, la conséquence n’est pas bonne. On l’a dit souvent, et c’est vrai. Mais insuffisant, ce n’est vrai qu’en un sens. Sens à déterminer, si l’on veut essayer de comprendre l’objectivité en d’autres termes que ceux de l’auto-proclamation. Passage du sens commun à la science, passage aussi d’une théorie à une autre. Où nous verrons peut-être encore que l’idée de coupure ne constitue pas un filet aussi fin qu’on le pense parfois. En ce cas, peut-on faire l’économie d’une élaboration du problème de la perception et du problème de l’histoire ? Où nous pourrions découvrir peut-être une formulation moderne du problème transcendantal.

L’explication déductive.

La critique de l’inductivisme, et plus généralement du mythe supposé « baconien » du progrès comme accumulation prudente d’observations neutres, s’accompagne d’une représentation positive de la croissance des connaissances et de la structure explicative des sciences. A l’opposé de toute pensée inductiviste, la conception poppérienne des sciences est rigoureusement hypothético-déductive (en un sens différent du sens hilbertien).

La structure d’une explication scientifique est la suivante : 1) l’explicans est (au-moins) une loi générale comme vraie accompagnée de conditions initiales spécifiques – 2) l’explicandum est déductible de l’explicans – 3) l’explicans est testable empiriquement – 4) ces tests sont indépendants de l’explicandum (Objective Knowledge 5, p. 192 et Logique de la découverte scientifique, p. 58) (les conditions 3 et 4 peuvent être formulées comme suite : l’explicans a un contenu empirique riche). Les lois intégrées dans l’explicans peuvent être de plusieurs types : relations empiriques ou énoncés portant sur des éléments « inobservables ». On dira que l’explicans décrit des phénomènes « plus profonds » que l’explicandum. Toutefois la notion de profondeur, quoique indispensable en tant « qu’idée régulatrice » de la recherche, ne peut être prise comme critère de contrôle, au moins parce qu’elle ne peut être analysée logiquement. Il faut noter qu’alors que dans la Logique de la découverte scientifique les termes de « cause » et « d’effet » étaient, comme le terme de « vérité », utilisés avec quelque hésitation due à leurs connotations aristotéliciennes, c’est-à-dire « essentialistes » et à la vertu de la critique nominaliste de la cause (Berkeley-Hume), par la suite, la découverte de la sémantique (Carnap et surtout Tarski) enlèvera tout scrupule à Popper : on dira que « l’événement A est la cause de l’événement B, et B l’effet de A, si et seulement si il existe un langage dans lequel nous pouvons formuler trois propositions u, a et b, telles que u soit une loi universelle vraie, a décrive A et b décrive B, et que b soit une conséquence logique de u et de a ». De même un événement E sera défini comme « le désignateur commun d’une classe d’énoncés singuliers mutuellement traduisibles ». Cette structure « déductive- nomologique » (Hempel, 1972, p. 77) a pour avantage :

1)   de ne faire intervenir que la déduction dans la structure logique des sciences,

2)   sans pour autant « figer » l’image de la recherche puisque expliquer c’est tester, en vertu du fait de la « symétrie entre explication et prédiction » (cf. Hempel, in Feigl & Brodbeck, p. 323) ; symétrie qui ne doit pas conduire au « prédictivisme », puisque toute prédiction n’est pas une explication : la clause de « profondeurs » est ici justifiée.

L’explicans décrit des propriétés structurales du monde sous forme de lois universelles, et non seulement des conditions suffisantes d’apparition d’un phénomène (ce qui aurait la facheuse conséquence de ne pas permettre de différencier le signe de la cause, voire l’effet de la cause, comme chez Mill, 1866, par ex. p. 429). La conception hypothético-déductive non prédictiviste a donc pour corollaire un réalisme des structures inobservables comme le précise le linguiste S.K. Saumjan : son hypothèse d’une langue génotype universelle n’est pas un « truc » (device) du logicien, conçu comme devant simplement permettre, ici par les moyens de l’analyse combinatoire, là par ceux de fonctions récursives (grammaires génératives), de produire (i.e. prédire) les énoncé du langage. Mais le géno-type est assumé comme ayant une réalité objective, « matérielle » (cf. Saumjan in Dialectiques n°7, p. 121). La réalité objective de l’hypothèse idéale permet d’engendrer (ici les langues naturelles). (De cette exigence proviennent peut-être les ambitions de Chomsky de vouloir tester sa théorie de la compétence en la confrontant à une neuro-psychologie à venir, ce qui est prendre le terme « réalité objective » en un sens restrictif, en l’occurrence psychologiste ou, comme il dit, « mentaliste ».) Quoi qu’il en soit, il est clair que Chomsky et Saumjan se rejoignent dans leur volonté de faire des hypothèses risquées, de théoriser, et de ne pas se contenter de la collecte et de la classification empiriste. En ce sens, il serait peut-être plus pertinent, au lieu d’opposer un « cartésianisme » assez étranger à l’empirisme behavioriste, d’opposer le déductivisme à l’inductivisme, comme le suggère J. Bouveresse (in Discussing language, p. 309). Il y a d’ailleurs chez Chomsky des réflexions très poppériennes en particulier sur le critère de choix entre deux théories : choisir la plus restrictive, c’est-à-dire la plus aisément falsifiable si elle est fausse (cf. op. cit., dans la contribution de Chomsky, p. 47-49). L’évolution de la linguistique contemporaine constitue à certains égards une illustration frappante des thèses de Popper : ce que Chomsky reprochait au distributionnalisme de Bloomfeld, c’était d’en rester à une conception purement taxinomique, descriptive et classificatoire de la science : en un mot de fonder la recherche trop exclusivement sur des inductions prudentes et non sur des hypothèses hautement théoriques et explicatives. Le lien entre induction et classification est certain : si l’on ne cherche pas « au-delà » des phénomènes, si l’on ne fait pas d’hypothèses sur des structures cachées, tout ce qu’il reste à faire c’est de « mettre un peu d’ordre » dans le désordre apparent des phénomènes, c’est de classifier. Mais comme cette classification n’est pas testable autrement que pas sa simplicité, rien ne garantit sa valeur objective : ainsi, d’après Toulmin (1973, p. 130) ce n’est qu’avec la théorie atomique de Bohr-Rutherford que la classification considérée auparavant comme accidentelle sinon conventionnelle des atomes selon leur nombre dans la table de Mendeleieff put acquérir une réelle valeur objective. Les classifications ne peuvent jouer qu’un rôle d’étape préparatoire à la théorisation, si elles ne fonctionnent pas plutôt comme « obstacles épistémologiques ». On peut illustrer ceci en constatant par exemple avec Engels que « l’induction établit que les poissons sont ces vertébrés qui respirent exclusivement par les branchies. Et voilà que se présentent des animaux, dont les caractéristiques de poissons sont universellement reconnues, mais qui, à côté des branchies, ont des poumons bien développés, et il s’avère que chaque poisson porte dans sa vessie natatoire un poumon en puissance » (La Dialectique de la nature, p. 231). Seule une théorie est capable de confirmer (et le plus souvent, au-moins d’améliorer) une classification purement inductive :

« C’est seulement en appliquant hardiment la théorie de l’évolution que Haeckel aida à sortir de ces contradictions les partisans de l’induction qui s’y sentaient parfaitement à l’aise ».

La théorie permet de déduire une classification non arbitraire, tandis que « chaque jour on découvre des faits nouveaux qui renversent toute la classification inductive antérieure » (id. p. 230). La démarche hypothético-déductive n’est donc pas seulement la seule qui permette de rendre compte de la rationalité des inférences scientifiques, mais elle a également une grande valeur heuristique, comme le soutenaient déjà Whewell et Claude Bernard. Son emploi se généralise, en particulier depuis 1945, dans des domaines autres que les mathématiques ou la physique, par exemple la géologie, la médecine, la biologie, la linguistique, voire l’ethnologie : la « méthode structurale » de Levi-Strauss est hypothético-déductive :

« On recontre ici l’analogue de la situation épistémologique exemplaire que fut celle de la construction et de l’exploitation du tableau de Mendeleieff. Un ensemble de phénomènes déjà connus et suffisamment analysés est structuré selon certains concepts ; cette structuration fait apparaître des objets abstraits que l’expérience n’a pas décelés mais dont la clôture du système exige que des phénomènes leur correspondent. On admettra sans doute qu’il y a bien en ce cas une forme très forte de « prévision », encore que le temps n’y joue aucun rôle essentiel » (Granger, art. cit., p. 155).

Cette révolution dans les sciences non physiques permet de penser à nouveaux frais le problème de « l’unité de(s) la science(s) ». S’il faut renoncer à tout réductionnisme terroriste (Objective Knowledge. p. 291), en particulier à la « physicalisation », positiviste, on constate que « méthodologiquement, depuis 1950, les différences positivistes sont uniformes » (Bunge, art. cit., p. 166). Autrement dit, des domaines de savoir auparavant pétris de métaphysique et de généralisations inductives peu informatives , acquièrent leur statut de science (leur valeur objective) en devenant testables grâce à l’emploi systématique de méthodes hypothético-déductives. Autre conséquence de ce devenir des sciences : la mathématisation n’est plus une condition sine qua non de la scientificisation (d’autant qu’un respect non critique pour les mathématiques peut avoir une « pernicieuse influence » sur les sciences empiriques : croire que mettre en formules dispense de penser ; cf. P.S., p. 243). »

(In : Alain BOYER. « Introduction à la lecture de Karl Popper ». Éditions Presses de l’École Normale Supérieure, Paris, 1994, pages : 59 – 62).

Catégories :Alain BOYER.