Philosophie des sciences

Philosophie des sciences

Introduction : Spécification de la science

La comparaison de la science et de la non-science est décrite comme le problème de la séparation. Par exemple, faut-il prendre en considération la psychanalyse dans la science ? Qu’en est-il exactement de la science de la création, de la théorie du multivers inflationniste ou de la macroéconomie ? Karl Popper a appelé cela l’enquête centrale dans l’idéologie de la recherche scientifique. Néanmoins, aucun compte rendu unifié du problème n’a été approuvé par les philosophes, et certains considèrent le problème comme insoluble ou inintéressant. Martin Gardner a plaidé en faveur de l’utilisation d’une norme de Potter Stewart (« Je la comprends quand je la vois ») pour reconnaître la pseudoscience.

Les premières tentatives des positivistes rationnels fondaient la science sur l’observation alors que la non-science était non observationnelle et donc sans valeur. Popper a dit que le foyer central de la science est la falsifiabilité. C’est-à-dire que chaque allégation véritablement clinique peut être prouvée fausse, au moins en théorie.

Un lieu d’étude ou de conjecture qui se fait passer pour une science pour déclarer une légitimité qu’il n’aurait pas la capacité d’atteindre ou qu’il n’aurait pas la capacité d’atteindre est décrit comme une pseudoscience, une science marginale ou une science de rebut. Le physicien Richard Feynman a inventé le terme « science culte du fret » pour des situations dans lesquelles les chercheurs pensent qu’ils font de la recherche scientifique puisque leurs tâches ont l’apparence extérieure, mais n’ont pas le « type de sincérité totale » qui permet à leurs résultats d’être soigneusement examinés.

Description scientifique

Une préoccupation très pertinente est ce qui compte comme une excellente explication clinique. En plus d’offrir des prévisions concernant des événements futurs, la société utilise souvent des concepts scientifiques pour décrire des occasions qui se sont produites régulièrement ou qui se sont déjà produites. Les philosophes ont exploré les normes par lesquelles une idée clinique peut être déclarée comme ayant efficacement clarifié un phénomène et ce que cela implique de dire qu’un concept clinique a un pouvoir informatif.

Un modèle très précoce et significatif de l’explication clinique est un modèle déductif-nomologique. Il dit qu’une explication scientifique adéquate doit raisonner les phénomènes concernés à partir de la législation clinique. Ce site a fait l’objet d’objections substantielles, ce qui a donné lieu à plusieurs contre-exemples communément reconnus au concept. C’est surtout un essai pour caractériser ce qui est indiqué par une description lorsque les choses importantes à discuter ne peuvent être déduites d’aucune législation puisqu’elle se réfère au hasard ou ne peut être entièrement anticipée à partir de ce qui est compris. Wesley Salmon a créé une version dans laquelle une formidable description scientifique doit être statistiquement pertinente pour le résultat à expliquer. D’autres ont suggéré que la clé d’une excellente explication est d’unifier les sensations in consonnes ou d’offrir un dispositif causal.

Garantie de la recherche scientifique

Les hypothèses que les volailles pourraient créer concernant les habitudes des agriculteurs mettent en évidence le « problème de l’induction ».

Bien qu’elle soit fréquemment prise pour approbation, on ne sait jamais exactement comment on peut déduire la légitimité d’une déclaration générale à partir de certains cas ou présumer un concept à partir d’un recueil d’examens pratiques. Par exemple, un poulet observe que chaque matin le fermier vient et lui donne à manger plusieurs jours d’affilée. La poule pourrait par conséquent utiliser la pensée inductive pour présumer que le fermier apportera certainement de la nourriture tous les matins. Néanmoins, un matin, le fermier vient et tue aussi la poule. En quoi le raisonnement clinique est-il plus crédible que la pensée du poulet ?

Une stratégie consiste à reconnaître que l’induction ne peut pas accomplir la certitude, mais observer encore plus de circonstances d’une déclaration d’introduction peut à tout le moins rendre la déclaration de base beaucoup plus probable. Ainsi, la poule aurait sans doute raison de conclure de tous ces matins matinaux que le fermier reviendra probablement avec de la nourriture le lendemain matin, même s’il n’est pas sûr. Néanmoins, des préoccupations complexes subsistent quant à la procédure d’interprétation d’une preuve donnée en une chance que la déclaration générale soit vraie. Une échappatoire à ces problèmes particuliers est que toutes les croyances sur les théories scientifiques sont subjectives ou personnelles et un raisonnement approprié est exactement comment la preuve devrait changer ses opinions subjectives dans le temps.

Certains suggèrent que ce que fassent les chercheurs n’est pas une pensée inductive, mais plutôt un raisonnement abductif, ou un raisonnement vers la meilleure explication. Dans ce récit, la recherche scientifique ne vise pas à généraliser certains cas, mais plutôt à supposer des descriptions de ce qui est observé. Comme indiqué dans le domaine précédent, on ne sait pas ce qui est indiqué par la « meilleure description ». Le rasoir d’Ockham, qui conseille de choisir l’explication la plus fondamentale, joue un rôle essentiel dans certaines versions de cette technique. Pour revenir au cas du poulet, serait-il plus simple de supposer que le fermier l’apprécie et continuera à en prendre soin pour toujours ou que le fermier l’engraisse pour l’abattage ? Les philosophes ont tenté de rendre ce principe heuristique beaucoup plus précis en ce qui concerne la parcimonie théorique ou diverses autres procédures. Encore,

Pour le dire simplement, il semble qu’il y ait autant de mesures de simplicité qu’il y a de concepts eux-mêmes. La tâche de choisir entre des étapes de simplicité semble être tout aussi problématique que la tâche de choisir entre des idées. Nicholas Maxwell a soutenu pendant quelques années que l’unité au lieu de la simplicité est le facteur non empirique crucial pour influencer l’option de la théorie en science, une préférence constante pour les approches combinées engageant efficacement la recherche scientifique à l’acceptation d’une thèse métaphysique concernant l’unité dans la nature. Pour renforcer cette thèse gênante, elle doit être représentée sous la forme d’une structure de pouvoir de théories, chaque théorie devenant plus pauvre à mesure que l’on augmente l’ordre hiérarchique.

Le suivi est indissociable de la théorie.

Translucide comme un télescope, la croix d’Einstein semble fournir la preuve de cinq objets différents ; cependant, ce suivi est chargé de théorie. Si nous supposons le concept de relativité générale, l’image ne donne des preuves que pour deux éléments.

Lorsqu’ils font des observations, les chercheurs regardent à travers des télescopes, étudient des images sur des écrans numériques, enregistrent des relevés de compteurs, etc. Habituellement, à un niveau fondamental, ils peuvent se contenter de ce qu’ils voient, par exemple, le thermomètre révèle 37,9 degrés C. Pourtant, si ces chercheurs ont des suggestions différentes concernant les théories qui ont été créées pour discuter de ces observations fondamentales, ils pourraient être en désaccord sur ce qu’ils observent. Par exemple, avant la théorie de la relativité générale d’Albert Einstein, les téléspectateurs auraient certainement analysé une photo de la croix d’Einstein comme cinq choses différentes précèdent. À la lumière de cette théorie, néanmoins, les astronomes vous diront sans aucun doute qu’il n’y a que deux choses, une dans l’installation et aussi quatre images différentes d’un deuxième objet sur les côtés. Alternativement, si divers autres chercheurs pensent que quelque chose ne va pas avec le télescope et qu’une seule chose est observée, ils opèrent selon une autre théorie. Les observations qui ne peuvent être séparées de l’interprétation théorique sont considérées comme chargées de théorie. 

Toute surveillance comprend à la fois la perception et la cognition. On ne fait pas de surveillance passivement ; Cependant, il participe activement à l’identification du phénomène observé à partir des informations sensorielles environnantes. En conséquence, la surveillance est influencée par la compréhension sous-jacente de la façon dont le monde se présente. Cette compréhension peut affecter ce qui est vu, remarqué ou jugé digne de considération. En ce sens, on peut dire que toute observation est chargée de théorie.

L’objectif de la science

Les objectifs de la recherche scientifique doivent-ils établir le fait suprême ou exister des questions auxquelles la science ne peut répondre ? Les réalistes scientifiques déclarent que la science vise la vérité et que l’on devrait se rapporter aux concepts cliniques comme étant précis, grossièrement honnêtes ou probablement authentiques. Alternativement, les antiréalistes cliniques suggèrent que la recherche scientifique ne vise pas (ou du moins ne prospère pas) la réalité, en particulier la vérité sur les inobservables comme les électrons ou divers autres mondes. Les musiciens suggèrent que les concepts scientifiques ne devraient être évalués que sur leur efficacité. À leur avis, que les images soient vraies ou non n’entre pas en ligne de compte puisque la fonction de la science est de faire des prédictions et de permettre une technologie fiable.

Les rationalistes indiquent généralement le succès des concepts scientifiques actuels comme preuve de la réalité (ou quasi-vérité) des théories actuelles. Les antiréalistes indiquent soit les nombreux concepts incorrects à l’arrière-plan de la science, les préceptes épistémiques, le succès des fausses hypothèses de modélisation, ou communément appelés critiques postmodernes de l’objectivité comme preuve par rapport au réalisme clinique. Les antiréalistes tentent de discuter du succès des théories scientifiques sans référence à la réalité. Certains antiréalistes prétendent que les approches cliniques ne ciblent que les objets transparents et disent que ce critère juge principalement leur succès.

Valeurs et recherche scientifique

Les valeurs recoupent la science de diverses manières. Il existe des valeurs épistémiques qui aident principalement la recherche scientifique. L’entreprise clinique est installée spécifiquement culture et valeurs avec des experts spécifiques. Les valeurs découlent de la recherche scientifique, à la fois en tant qu’élément et en tant que processus, et peuvent être réparties entre plusieurs cultures de la société.

Supposons qu’il soit vague ce qui compte comme science, comment fonctionne le processus de confirmation des concepts et l’objectif de la recherche scientifique. Il y a une place importante pour la valeur et d’autres influences sociales pour façonner la recherche scientifique. Certes, les valeurs peuvent contribuer, allant de l’établissement de l’étude qui obtient de l’argent à l’influence sur les théories qui parviennent à un consensus clinique. Par exemple, au 19ᵉ siècle, les valeurs culturelles détenues par les scientifiques sur la race ont façonné les études de recherche sur l’avancement et les valeurs concernant la classe sociale ont influencé les débats sur la phrénologie (considérée comme clinique à l’époque). Les penseurs féministes de la science, les sociologues de la recherche scientifique et d’autres examinent strictement l’impact des valeurs sociales sur la recherche scientifique.

Contexte : Pré-moderne

Les débuts de l’approche de la recherche scientifique remontent à Platon, mais aussi à Aristote, qui différenciaient les formes de pensée approximative aussi bien que spécifique, exposaient le triple système d’inférence abductive, déductive et inductive, et évaluaient également le raisonnement par Exemple. Le grand mathématicien arabe du XIe siècle Ibn al-Haytham (comprise en latin comme Alhazen) a effectué ses recherches en optique en utilisant un dépistage spéculatif réglementé et une géométrie appliquée, en particulier dans ses examens jusque dans les images résultant de la réflexion ainsi que de la réfraction de la lumière. Roger Bacon (1214-1294), un penseur et expérimentateur anglais fortement influencé par al-Haytham, est identifié par plusieurs comme le père de la méthode scientifique moderne.

Moderne

La sculpture de Francis Bacon à Gray’s Inn, South Square, Londres

Francis Bacon (aucun lien direct avec Roger, qui a vécu 300 ans auparavant) était une figure critique de la science à l’époque de la transformation scientifique. Dans son ouvrage Novum Organum (1620), une allusion à l’Organon d’Aristote, Bacon a détaillé un nouveau système de logique pour améliorer l’ancien processus philosophique du syllogisme. La méthode de Bacon s’est appuyée sur des arrière-plans expérimentaux pour supprimer différents concepts. En 1637, René Descartes a développé un nouveau cadre pour fonder la connaissance scientifique dans son traité, Discours sur la technique, soutenant la fonction centrale du facteur au lieu de l’expérience sensorielle. Par comparaison, en 1713, la deuxième édition de Philosophiae Naturalis Principia Mathematica d’Isaac Newton disait que « … les hypothèses … n’ont pas leur place dans l’approche théorique. Dans cette idéologie [, ] les recommandations sont raisonnées à partir des phénomènes et généralisées par induction. Ce passage a influencé une « génération ultérieure de téléspectateurs enclins à la philosophie à prononcer une interdiction des théories causales dans une approche entièrement naturelle ». En particulier, plus tard au XVIIIe siècle, David Hume verbalisera de manière célèbre l’incertitude quant à la capacité de la science à identifier l’origine et fournira une formule définitive du problème de l’induction. Les écrits du XIXe siècle de John Stuart Mill sont en outre considérés comme essentiels dans le développement des conceptions actuelles de la technique clinique et anticipant plus tard les comptes rendus de la description scientifique. David Hume aurait verbalisé l’incertitude quant à la capacité de la science à identifier l’origine et a fourni une formule définitive du problème de l’induction. Les écrits du XIXe siècle de John Stuart Mill sont en outre considérés comme essentiels dans le développement des conceptions actuelles de la technique clinique et anticipant plus tard les comptes rendus de la description scientifique. David Hume aurait verbalisé l’incertitude quant à la capacité de la science à identifier l’origine et a fourni une formule définitive du problème de l’induction. Les écrits du XIXe siècle de John Stuart Mill sont en outre considérés comme essentiels dans le développement des conceptions actuelles de la technique clinique et anticipant plus tard les comptes rendus de la description scientifique.

Positivisme sensé

L’instrumentalisme est venu à être préféré parmi les physiciens au tournant du 20e siècle, après quoi le positivisme rationnel a défini le domaine pendant plusieurs décennies. Le positivisme logique accepte uniquement les déclarations vérifiables comme significatives, rejette les interprétations métaphysiques et accueille le vérificationnisme (un ensemble de théories de la compréhension qui combine le logicisme, l’empirisme et la linguistique pour fonder l’idéologie sur une base cohérente avec les exemples des recherches scientifiques empiriques). Cherchant à moderniser toutes les approches et à les transformer en une nouvelle méthode scientifique, le Cercle de Berlin et le Cercle de Vienne ont recommandé le positivisme logique à la fin des années 1920.

En analysant la première philosophie du langage de Ludwig Wittgenstein, les positivistes sensibles ont identifié un principe de vérifiabilité ou une norme de signification cognitive. À partir du logicisme de Bertrand Russell, ils ont cherché la réduction des mathématiques à la logique. Ils ont également adopté l’atomisme sensible de Russell, le phénoménisme d’Ernst Mach, dans lequel l’esprit ne comprend que l’expérience sensorielle réelle ou prospective, qui est le contenu Web de toutes les recherches scientifiques, qu’elles soient physiques ou psychologiques, et l’opérationnalisme de Percy Bridgman. Ainsi, seul le vérifiable était clinique et aussi cognitivement significatif. En revanche, les invérifiables étaient des « pseudo-déclarations » non scientifiques, inutiles sur le plan cognitif, métaphysiques, émouvantes ou autre – pas un excellent examen supplémentaire par des théoriciens, à qui l’on a confié récemment l’organisation de l’expertise au lieu de développer une toute nouvelle compréhension. Le positivisme logique est généralement représenté comme prenant à l’extrême que le langage scientifique ne doit jamais se référer à quoi que ce soit d’inobservable. En outre, les notions fondamentales apparentes d’origine, de mécanisme et de concepts sont une surestimation. Parler de tels inobservables pourrait être considéré comme des surveillances symboliques, vues dans l’abstrait, ou au pire métaphysiques ou émotionnelles. Les législations académiques seraient réduites à des législations empiriques, tandis que les termes théoriques gagneraient certainement en signification des termes pratiques utilisant des politiques de correspondance. Les mathématiques en physique abaisseraient la logique symbolique via le logicisme, tandis qu’une restauration sensible convertirait le langage moyen en correspondances standard, toutes mises en réseau et reliées par une syntaxe rationnelle. Une théorie scientifique serait sans doute énoncée avec sa méthode de confirmation,

À la fin des années 1930, des positivistes sensés ont quitté l’Allemagne et l’Autriche pour la Grande-Bretagne et aussi l’Amérique. Déjà, beaucoup avaient changé le phénoménalisme de Mach avec le physicalisme d’Otto Neurath, et Rudolf Carnap avait cherché à altérer la confirmation par une simple confirmation. Avec la fin de la Seconde Guerre mondiale en 1945, le positivisme logique est devenu un empirisme rationnel plus doux, dirigé principalement par Carl Hempel, en Amérique, qui a exposé le modèle de régulation couvrant de la description scientifique comme un moyen d’identifier le type d’explications approprié sans recommandation aux méfiants. Idée de « causalité ». L’activité positiviste rationnelle est devenue un soutien important de l’approche analytique et a dominé l’idéologie anglosphère, consistant en le point de vue de la recherche scientifique, tout en affectant les sciences, dans les années 1960. Pourtant, la motion n’a pas non plus résolu ses principaux problèmes, car ses enseignements ont été considérablement attaqués. Néanmoins, il a établi l’approche de la recherche scientifique comme une sous-discipline distincte de l’idéologie, avec Carl Hempel jouant un devoir essentiel.

Pour Kuhn, l’amélioration des épicycles dans l’astronomie ptolémaïque était une « science typique » au sein d’un paradigme, alors que la transformation copernicienne était un changement standard.


Thomas Kuhn

Thomas Kuhn Timeline | Timetoast timelines
Par  Jérémie Karélius

Dans la publication de 1962 The Framework of Scientific Revolutions, Thomas Kuhn a suggéré que la procédure d’observation et d’évaluation se déroule dans un paradigme, une « image » réaliste et régulière du globe qui suit les commentaires faits à partir de son cadrage. Un paradigme comprend en outre l’ensemble des préoccupations et des méthodes qui définissent une discipline scientifique. Il a caractérisé la science typique comme le processus de surveillance et aussi de « résolution de défis », qui se déroule dans un paradigme. En revanche, la science avancée a lieu lorsqu’une norme dépasse une autre dans un changement de norme.
Kuhn a nié qu’il soit toujours possible d’isoler l’hypothèse examinée de l’impact du concept sur lequel les observations sont fondées. Il a suggéré qu’il n’est pas possible d’évaluer la compétition pour les paradigmes individuellement. Plus d’une construction logiquement constante peut peindre une ressemblance utilisable du monde, mais il n’y a pas de terrain d’entente pour opposer deux l’un à l’autre, la théorie contre le concept. Chaque norme a ses propres enquêtes, objectifs et analyses distincts. Ni l’un ni l’autre ne fournit une norme par laquelle l’autre peut être évalué, il n’y a donc aucun moyen apparent de mesurer la progression scientifique à travers les paradigmes.

Pour Kuhn, le choix de la norme était maintenu par des procédures logiques, mais pas forcément compris par celles-ci. L’option entre les normes comprend la définition d’au moins deux « images » par rapport au globe et la détermination de la similitude la plus prometteuse. Pour Kuhn, l’approbation ou le rejet d’un paradigme est un processus social aussi long qu’un processus logique. La position de Kuhn, cependant, n’est pas celle du relativisme. Selon Kuhn, un changement standard se produit lorsque de nombreuses anomalies empiriques se développent dans l’ancien paradigme et qu’un tout nouveau paradigme leur donne un sens. La sélection d’un tout nouveau paradigme est basée sur la surveillance, bien que ces observations soient faites par rapport à l’histoire de l’ancien paradigme.

Approches existantes
Hypothèses démontrables du naturalisme

Naturalismo: características e diferenças para o Realismo [resumo]
todoestudo.com.br

Toute étude scientifique s’appuie inévitablement sur au moins certaines hypothèses essentielles qui n’ont pas été testées par les processus cliniques. Kuhn convient que toute science est basée sur un programme autorisé d’hypothèses indémontrables concernant la personnalité de l’espace profond au lieu de simplement sur des réalités empiriques. Ces présomptions – un paradigme – constituent un ensemble de croyances, de valeurs et de stratégies détenues par un quartier clinique fourni, qui légitiment leurs systèmes et fixent les limites de leur enquête. Pour les biologistes, la Nature est le seul fait, le seul paradigme. Il n’y a pas de « superordinaire ». L’approche clinique doit être utilisée pour vérifier toute la vérité et le naturalisme est le point de vue implicite des chercheurs qui travaillent.


Les présomptions fondamentales suivantes sont nécessaires pour justifier l’approche clinique.


1. que tous les observateurs rationnels partagent une vérité impartiale. “La base de la rationalité est l’acceptation d’un fait objectif extérieur.” « En tant qu’individus, nous ne pouvons pas savoir que les détails sensoriels que nous voyons sont créés artificiellement ou proviennent de la vie réelle. Toute idée que cela se produise à partir d’un monde réel en dehors de nous est une hypothèse. Il semble plus avantageux de présumer qu’une réalité objective existe que de faire face au solipsisme. Par conséquent, les individus sont tout à fait heureux de faire cette hypothèse. Nous avons fait cette présomption inconsciemment lorsque nous avons commencé à découvrir le monde en tant que bébés. Le globe extérieur à nous se présente pour réagir par des moyens qui le suivent étant réel. … La présomption d’objectivisme est nécessaire si nous voulons attacher les définitions modernes à nos expériences ainsi qu’à nos sensations et leur donner plus de sens. « Sans cette hypothèse,

2. que des lois naturelles régissent ce fait objectif. “La science, à tout le moins aujourd’hui, présume que l’espace profond est conforme à des concepts connaissables qui ne reposent pas sur le temps ou le lieu, ni sur des critères subjectifs tels que ce que nous croyons, comprenons ou comment nous nous comportons.” Hugh Gauch soutient que la science suppose que « le monde réel est ordonné et également compréhensible ».

3. que la vérité peut être trouvée en utilisant l’observation organisée ainsi que des tests. [47] [48] Stanley Sobottka a affirmé : « La présomption de réalité externe est essentielle pour que la science fonctionne aussi bien qu’elle s’épanouisse. Essentiellement, la recherche scientifique est la découverte et la description du monde extérieur. « La science tente de créer une compréhension aussi globale et impartiale que possible dans le domaine de la compréhension humaine. »

4. que la Nature a l’harmonie des régulations et que la plupart sinon tous les points de la Nature doivent soutenir une véritable raison. Le biologiste Stephen Jay Gould a fait référence à ces deux suggestions soigneusement pertinentes quant à la régularité des régulations de la Nature et au fonctionnement de processus bien connus. Simpson convient que l’hypothèse de l’harmonie des principes, une proposition impossible à prouver, est nécessaire pour que les scientifiques extrapolent l’inférence inductive directement dans le passé inobservable pour l’examiner de manière significative. ces procédures expérimentales seront sans aucun doute suffisamment effectuées sans erreurs qui influer sur un résultat.  ​​Que les expérimentateurs ne seront pas considérablement biaisés par leurs hypothèses.

5. que l’échantillonnage aléatoire est un agent de l’ensemble de la population. Un échantillon aléatoire simple (SRS) est l’un des choix probabilistes les plus fondamentaux utilisés pour développer un exemple à partir d’un public. L’avantage du SRS est que le détective privé est assuré de sélectionner un échantillon qui représente la population qui émet des pensées finales statistiquement légitimes spécifiques.

Cohérentisme

Jeremiah Horrocks a réalisé le premier suivi du transit de Vénus en 1639, illustré par le musicien WR Lavender en 1903

Contrairement à l’idée que la recherche scientifique repose sur des présomptions fondamentales, le cohérentisme affirme que les déclarations sont validées en faisant partie d’un système systématique. Ou, au contraire, des mots spécifiques ne peuvent pas être confirmés seuls : seuls les systèmes périodiques peuvent être justifiés. [56] Une prévision du transport de Vénus est justifiée par son sens avec des idées plus complètes sur la mécanique automobile céleste et aussi des observations antérieures. Comme expliqué plus haut, l’observation est un acte cognitif. C’est-à-dire que cela dépend d’une compréhension préexistante, d’un ensemble organisé de croyances. Une observation du transport de Vénus nécessite une gamme substantielle d’idées à l’appui, telles que celles qui expliquent l’optique des télescopes, la mécanique automobile du lieu du télescope, ainsi qu’une compréhension de la mécanique céleste. Supposons que la prédiction échoue et que le transit ne soit pas observé. Dans ce cas, cela risque fort d’occasionner un ajustement du système, un changement dans une hypothèse auxiliaire, au lieu d’un rejet de l’approche théorique. [citation requise]

En effet, selon la thèse Duhem-Quine, d’après Pierre Duhem et WV Quine, il est impossible de tester une théorie isolément. Il faut ajouter des approches complémentaires pour faire des prévisions testables en permanence. Par exemple, pour vérifier la législation de Newton sur la gravitation dans le système planétaire, on a besoin d’informations concernant les masses et les emplacements de la lumière du soleil et de toutes les planètes. Célèbre, l’échec de la prévision de l’orbite d’Uranus au 19ᵉ siècle n’a pas conduit au rejet de la loi de Newton, mais plutôt au rejet de l’hypothèse selon laquelle le système planétaire ne comprend que sept planètes. Les examens qui s’y sont déroulés ont conduit à l’exploration de la huitième terre, Neptune. Si un test échoue, quelque chose ne va pas. Cependant, il est difficile d’identifier que quelque chose est : monde manquant,

Un effet de la  thèse de Duhem : Quine est que l’on peut rendre n’importe quelle théorie compatible avec n’importe quelle observation empirique en valorisant une bonne variété d’hypothèses ad hoc appropriées. Karl Popper a accepté cette thèse, le conduisant à rejeter la falsification naïve. Au lieu de cela, il a favorisé une vue de « survie du plus apte » dans laquelle les théories cliniques les plus falsifiables doivent être sélectionnées.

Méthode tout est permise

Paul Karl Feyerabend

Biography and Quotes for Paul Karl Feyerabend by ZiXin Long
appadvice.com

Paul Feyerabend (1924-1994) a fait valoir qu’aucun résumé de la méthode scientifique ne pourrait être suffisamment large pour inclure toutes les techniques et méthodes utilisées par les chercheurs. Il n’existe pas de règles techniques valables et exemptes d’exceptions contrôlant le développement de la science. Il a déclaré que « le seul principe qui n’entrave pas le progrès est : tout est permis ».

Feyerabend a déclaré que la recherche scientifique a commencé comme une activité libératrice ; cependant, avec le temps, il était devenu progressivement dogmatique et rigide et avait des attributs dominants, et était ainsi devenu progressivement un arrière-plan idéologique. Pour cette raison, il a affirmé qu’il était difficile de développer une méthode distincte pour identifier la science des croyances religieuses, de la magie ou de la mythologie. Il considérait la suprématie unique de la recherche scientifique comme un moyen de guider une société autoritaire et sans fondement. La promulgation de cet anarchisme épistémologique a fait de Feyerabend « le terrible adversaire de la recherche scientifique » de la part de ses détracteurs.

Sociologie de la méthode de la connaissance scientifique

Selon Kuhn, la science est une activité intrinsèquement communautaire qui peut être pratiquée dans le cadre d’une communauté. Pour lui, la distinction fondamentale entre la science et divers autres autocontrôles est la façon dont les communautés se présentent. D’autres, en particulier Feyerabend et certains penseurs postmodernistes, ont dit qu’il existe une distinction entre les méthodes sociales en science et d’autres autocontrôles pour maintenir cette différence. Les variables sociales jouent un rôle crucial et direct dans l’approche clinique, mais elles ne servent pas à différencier la science des autres techniques. Pour cette raison, la science est créée socialement, bien que cela ne suggère pas nécessairement la notion plus radicale que la réalité elle-même est une construction sociale.

Néanmoins, certains (comme Quine) préservent que la vérité scientifique est une construction sociale :

Les objets physiques sont conceptuellement importés dans la situation en tant qu’intermédiaires pratiques, pas nécessairement en ce qui concerne l’expérience, mais tout aussi irréductibles, comparables, épistémologiquement, aux dieux d’Homère… Pour ma part, je crois, en tant que physicien profane, aux objets physiques. Et pas dans les dieux d’Homère, et aussi, je considère que c’est une erreur clinique de croire le contraire. Pourtant, dans un facteur d’ancrage épistémologique, les objets physiques et les dieux diffèrent juste par leur niveau et non par leur nature. Les deux types d’entités entrent dans nos perceptions comme des positions sociales.

La réaction publique des chercheurs contre de tels sites, en particulier dans les années 1990, a été appelée la guerre de la science.

Ces dernières années, la recherche sur la formation, le cadre et le développement de quartiers cliniques par des sociologues et des anthropologues, dont David Bloor, Harry Collins, Bruno Latour, Ian Hacking et Anselm Strauss, a connu une croissance significative. Des idées et aussi des approches (telles que la sélection logique, le choix social ou la théorie des jeux) de l’économie ont en outre été appliquées [par qui ?] pour comprendre l’efficacité des communautés cliniques dans la production de connaissances. Ce domaine interdisciplinaire est devenu connu sous le nom d’études de recherche scientifique et technologique. Ici, la stratégie de l’idéologie de la science est d’étudier le fonctionnement des communautés scientifiques.

Approche continentale

Les penseurs de la tradition philosophique continentale ne sont généralement pas classés [par qui ?] comme théoriciens de la recherche scientifique. Cependant, ils ont beaucoup à dire sur la science, dont certains ont attendu des styles dans la coutume analytique. Par exemple, Friedrich Nietzsche a avancé la thèse dans son The Family Tree of Morals (1887) selon laquelle l’intention de la recherche de faits dans les sciences est une ascète appropriée.

Hegel avec ses élèves berlinois

Croquis de Franz Kugler

Franz Kugler by Adolph von Menzel on artnet
Adolph von Menzel
 (German, 1815–1905)

Généralement, le point de vue continental envisage la science d’un point de vue historique mondial. Georg Wilhelm Friedrich Hegel (1770-1831) est devenu l’un des premiers théoriciens à soutenir cette vision. Des penseurs tels que Pierre Duhem (1861-1916) et Gaston Bachelard (1884-1962) ont également composé leur traité avec cette stratégie historique mondiale de la recherche scientifique, avant le travail de Kuhn en 1962 d’une génération ou même plus. Chacune de ces approches comprend une approche historique et sociologique, fondée sur la science, avec une priorité absolue sur l’expérience vécue (une sorte de « monde de vie » husserlien), plutôt qu’une méthode basée sur le progrès ou anti-historique comme le souligne l’analyse. S’entraîner. On peut cartographier ce cheveu continental de la pensée à travers la phénoménologie d’Edmund Husserl (1859-1938), les travaux tardifs de Merleau-Ponty (Nature : Notes de cours du Collège de France, 1956-1960),

L’effet le plus significatif sur la coutume continentale concernant la recherche scientifique est venu de la critique de Martin Heidegger de l’attitude théorique, qui inclut l’état d’esprit clinique. [67] Par conséquent, la tradition continentale est restée beaucoup plus dubitative sur l’importance de la recherche scientifique dans la vie humaine et les questions philosophiques. Néanmoins, il y a eu une variété d’œuvres cruciales : notamment celles d’un précurseur kuhnien, Alexandre Koyré (1892-1964). Un autre développement important fut celui de l’évaluation par Michel Foucault de la pensée historique et scientifique dans L’ordre des choses (1966) et ses recherches sur le pouvoir et la corruption au sein de la « science » de la folie. Les auteurs post-heideggériens ajoutant à l’idéologie continentale de la recherche scientifique dans la 2e moitié du 20e siècle incluent Jürgen Habermas (par exemple, Vérité et Raison).

Partager cette publication