Menu English Ukrainian Russe Accueil

Bibliothèque technique gratuite pour les amateurs et les professionnels Bibliothèque technique gratuite


Philosophie des sciences et techniques. Notes de cours : brièvement, les plus importantes

Notes de cours, aide-mémoire

Annuaire / Notes de cours, aide-mémoire

Commentaires sur l'article Commentaires sur l'article

Partie I. Philosophie des sciences

Thème 1. Objet et méthodologie de la philosophie des sciences

Le problème de la corrélation entre le rationnel et l'irrationnel dans la cognition. Chaque science a son propre objet et sujet d'étude. Il y a une différence entre ces concepts : l'objet peut être commun à plusieurs sciences, le sujet est spécifique. Quel est l'objet et le sujet de la philosophie ? Comment sont-ils liés? Quelle est la place de la philosophie dans le système des sciences ? Et le savoir philosophique est-il réductible au scientifique si la philosophie a du mal à concrétiser son objet et se prétend universelle ? Toutes ces questions nécessitent un examen approfondi.

Comme on le sait, le sujet des sciences spéciales sont les besoins spécifiques individuels de la société - en technologie, économie, art, etc. - et chacun d'eux a son propre sujet d'existence. La pensée scientifique, par la pensée G.W.F. Hegel (1770-1831), immergé dans la matière finale et limité par la compréhension rationnelle de la finale. La philosophie s'intéresse au monde dans son ensemble, elle s'efforce d'avoir une compréhension holistique de l'univers. C'est chercher le commencement et la cause profonde, tandis que les sciences privées sont tournées vers des phénomènes qui existent objectivement, en dehors de l'homme, indépendamment de lui. Ils formulent des théories, des lois et des formules, en tenant compte de l'attitude personnelle et émotionnelle vis-à-vis des phénomènes étudiés et des conséquences sociales que telle ou telle découverte peut entraîner.

Un homme qui pense, comme il l'a écrit Emmanuel Kant (1724-1804), est capable de formuler l'unité dans le domaine de l'expérience. Kant distingue deux niveaux de ce processus de pensée : la raison, qui crée l'unité par l'expérience, et la raison, qui crée l'unité des règles de la raison selon des principes. En d’autres termes, l’esprit n’organise pas le matériel sensoriel, ni l’expérience, mais l’esprit lui-même. Ainsi, la raison s'efforce de réduire la diversité des connaissances de l'entendement au plus petit nombre de principes ou d'atteindre leur plus haute unité. La raison n'est capable d'apporter que l'unité de la cause, c'est-à-dire motif naturel. Mais la tâche la plus élevée de la science est de pénétrer dans les profondeurs mêmes de la nature, jusqu'aux causes premières, aux sources premières, aux principes premiers !

Le principe fondamental de l'unité est l'unité de but. La philosophie est une science qui connaît le but pour lequel tout se développe et bouge, et donc le bien (critères moraux). Ainsi, la philosophie est avant tout une vision du monde. De cette propriété de la philosophie découle le problème associé au rapport du rationnel et de l'irrationnel dans la cognition, c'est-à-dire avec la relation entre la philosophie et la science.

La science est rationnelle, c'est un raisonnement logique ; connaissance théoriquement consciente et universelle du sujet dans son aspect épistémologique. Mais la science est aussi un objet, un phénomène, une action dont le fondement de l'existence est une loi : formation, règle, ordre, opportunité. En même temps, il y a aussi le phénomène de l’irrationnel, c’est-à-dire une impulsion puissante et inconnue ; un certain désir qui n'a pas encore de raison ; force inconsciente. Le niveau le plus élevé dans la série d’objectivation de la volonté est l’homme : un être doté d’une connaissance rationnelle. Tout individu ignorant a conscience de lui-même par sa volonté de vivre. Tous les autres individus existent dans son esprit comme quelque chose qui dépend de son existence, qui sert de source à l’égoïsme sans limites de l’homme. L'organisation sociale, n'étant qu'un système de volontés partielles équilibrées, ne détruit pas l'égoïsme : vaincre l'impulsion égoïste s'effectue dans le domaine de l'art et de la morale.

Arthur Schopenhauer (1788-1860) définissent l'irrationnel comme la volonté de vivre. Selon Schopenhauer, la base de la morale est un sentiment de compassion, irrationnel. Une personne peut connaître à la fois la souffrance et le bonheur, enracinés dans la volonté même de vivre.

L'irrationnel est inconnaissable. Le mysticisme est une tentative de pénétrer là où ni la connaissance, ni la contemplation, ni le concept ne pénètrent. Mais le mystique ne peut communiquer autre chose que ses sentiments. Il faut le prendre au mot, il ne peut convaincre personne : cette connaissance n'est, en principe, pas communiquée. La philosophie doit partir d'une connaissance objective commune à tous, du fait de la conscience de soi. Selon Schopenhauer, elle se situe entre le rationalisme et l'irrationalisme et doit être une connaissance communiquée, c'est-à-dire rationnel. Pour exprimer des connaissances générales, la philosophie utilise des concepts et des catégories. Sa tâche principale est de construire une image unifiée du monde dans laquelle tout est interdépendant. Pourtant, l’irrationnel est objectif ! Foi aveugle dans le culte de la raison scientifique et technique (positivisme), dans les moyens logico-déductifs de compréhension de la vérité aux XIXe et XXe siècles. conduit à une sous-estimation du principe irrationnel. Et cela a joué un rôle fatal dans l’histoire de l’humanité : le penchant vers le rationnel n’a donné à la race humaine ni le bonheur ni la paix.

Il est généralement admis que le problème de la corrélation entre le rationnel et l'irrationnel est né à l'ère des temps modernes et est associé au nom René Descartes (1596-1650). La thèse principale de Descartes se réduit à ceci : « Je pense, donc je suis »[1] . D'où la sous-estimation du rôle de l'irrationnel, et l'exagération du rôle du raisonnable. Une sorte de stéréotype est aussi né : si c'est irrationnel, alors c'est négatif. Mais tout n'est pas si simple. La raison se retrouve souvent à la frontière de la morale : on peut prendre un morceau de pain à une personne pour se rassasier et ne pas mourir de faim. L'acte est raisonnable, mais immoral.

Quelle est la spécificité du savoir philosophique ? En réflexion ! La réflexion est comprise comme pensée et conscience, tournées sur elles-mêmes, sur la prise de conscience de leurs propres formes et prémisses. La réflexion philosophique diffère de la réflexion scientifique. Ce dernier est autonome, procédant souvent de la position de la scientificité comme seule ligne directrice de l'existence humaine (ce qui était particulièrement caractéristique des XVIIe-XVIIIe siècles).

philosophe autrichien Ludwig Wittgenstein (1889-1951) parlent de l’insuffisance d’une exploration purement cognitive du monde. Le domaine de la connaissance du monde est celui des faits et de leurs transformations logiques. Mais il existe des aspects du monde qui ne se prêtent pas à des énoncés de type cognitif. Ici, le monde est appréhendé de manière holistique, un sentiment d'implication commune dans le monde et la vie apparaît, les problèmes de Dieu, du bonheur, du sens de la vie, etc. Wittgenstein considérait que le but des études philosophiques était l’atteinte de la clarté, ce qui pour lui avait le sens d’un principe éthique en tant qu’exigence d’honnêteté et de sincérité dans les pensées et les déclarations, une conscience honnête de sa place et de son but dans le monde. Selon Wittgenstein, toute connaissance doit être réduite à un ensemble de propositions élémentaires, comme en mathématiques. Sur ce principe est construite sa doctrine de l'atomisme logique, qui est une projection de la structure de la connaissance prescrite par le modèle logico-structural sur la structure du monde. Ainsi, la réflexion philosophique présuppose le doute et la pensée créatrice.

Le problème de la méthodologie de la connaissance philosophique. La méthode est une forme de maîtrise pratique et théorique de la réalité, basée sur les schémas de mouvement de l'objet étudié. Méthodologie - la doctrine, ou la science, sur la méthode (les méthodes) et les principes de la connaissance - se compose de deux parties : a) la doctrine des fondements initiaux, des principes de la connaissance (cette partie est directement liée à la philosophie, à la vision du monde) et b) la doctrine des techniques et des méthodes de recherche (ici, des méthodes particulières de cognition sont considérées et une méthodologie générale de recherche est développée). Mais il existe un problème de décalage entre la méthodologie philosophique et scientifique. Par exemple, le positivisme croyait que la science est une philosophie en soi, et non seulement dans le domaine de l'étude de la réalité objective, mais aussi dans le domaine de la conscience de soi de ses conditions et conditions préalables. En d’autres termes, le positivisme classique du XIXe siècle a remplacé la philosophie par une connaissance scientifique concrète du monde. Le positivisme logique remplace la méthode philosophique par des méthodes scientifiques concrètes, et la réflexion philosophique sur la science par une réflexion scientifique concrète. Que nie le positivisme ? Premièrement, la réalité objective comme sujet d'analyse philosophique, et deuxièmement, la connaissance scientifique comme sujet de recherche philosophique. Nous parlons donc de l'élimination complète du sujet de la philosophie en général.

La science en tant qu'objet de recherche philosophique est étudiée dans de nombreuses branches de la connaissance, mais cela n'élimine pas la nécessité de sa considération philosophique. La science est analysée par la philosophie sous deux angles : méthodologique et idéologique. L'analyse méthodologique de la science aborde des problèmes tels que la dialectique de la relation entre l'objet et le sujet de la science ; logique interne, continuité, modèles de développement de la science ; la relation entre les niveaux empiriques et théoriques, les catégories et les lois, les formes et les méthodes de cognition (particulière, générale, universelle) ; image scientifique du monde, style de pensée ; objectivité des connaissances (théorie, vérité scientifique). L'analyse de la vision du monde de la science se concentre sur les problèmes associés aux facteurs de détermination socioculturelle de la science - production matérielle, technologie, technologie, progrès scientifique et technologique ; relations économiques; facteurs socio-politiques, philosophiques, moraux-esthétiques, idéologiques.

Insoutenables sont les tentatives de faire de la philosophie une science « spéciale », une « science des sciences » qui s'élève au-dessus de toutes les autres connaissances. La base de ces points de vue est le désir humain d'une connaissance holistique. En l'absence de connaissances scientifiques développées, cette tendance est satisfaite par la fabrication de connexions manquantes et la construction spéculative-spéculative d'une image du monde. Ainsi, même G.W.F. Hegel a écrit que toute science n'est que de la logique appliquée. Mais élever au-dessus des sciences positives aussi une science spéciale de la connexion universelle des choses est une chose inutile. Cela en ferait des poids sur les jambes de la science, empêcherait la science d'avancer.

La philosophie a sa propre question principale - celle du rapport de la conscience à l'être, qui détermine son approche du monde et sous-tend les méthodes et la logique de la cognition qu'elle développe. La philosophie ne doit pas s'opposer à la connaissance scientifique. Elle met en œuvre des attitudes idéologiques avec toutes les autres sciences (naturelles et sociales).

La science comme sujet de réflexion philosophique. La science est un concept de base qui n'a pas de définition formelle exhaustive. Ainsi, d'une part, la science est comprise comme le développement et la systématisation de la connaissance objective. D'autre part, la science est un principe raisonnable institutionnalisé (institution sociale) (bon sens). En même temps, la science est une communauté au sein de laquelle un accord complet (sans différences individuelles) et volontaire basé sur les croyances de différentes personnes sur une certaine question est possible. Une quasi-science est la forme que prend la science dans une communauté scientifique hiérarchisée ; une certaine théorie scientifique qui nie une science mondiale similaire. Une telle contradiction est un signe diagnostique caractéristique de l'analyse de la science. La quasi-science comprend à la fois les théories scientifiques et les relations entre scientifiques, c'est-à-dire c'est un outil qui permet à n'importe quel groupe de scientifiques de détenir ou de prendre le pouvoir dans la communauté scientifique. Enfin, il y a la pseudoscience - une sorte de doctrine qui est dans un état de négation mutuelle avec une science mondiale du même nom (par exemple, la biologie michourine, qui s'est opposée à la science mondiale de 1948 à 1964). Une quasi-science est un phénomène social, collectif qui existe dans la communauté scientifique. La pseudoscience est un phénomène individuel, une erreur d'un individu, causée par un faible niveau d'éducation, d'intellect, de maladie mentale. D'un point de vue historique, le concept de « science » a deux significations : premièrement, c'est ce que l'on entend par science dans la méthodologie moderne de la science ; et deuxièmement, c'est ce qu'on a appelé la science à différentes périodes de l'histoire humaine.

Les concepts de la science ont changé au fil du temps. Initialement, ce mot signifiait connaissance en général ou simplement connaissance de quelque chose. Pendant longtemps, le concept de « science » a été appliqué à une méthode de connaissance caractérisée par une pensée discursive (rationnelle, conceptuelle, logique, par opposition à sensuelle, contemplative). Mais l'astrologie et l'alchimie se caractérisent également par une pensée discursive et ont donc été considérées comme des sciences pendant de nombreux siècles. Au Moyen Âge, la théologie était la « reine » des sciences, et à l'époque de Descartes et de Leibniz, la métaphysique était considérée comme le « fondement » de la science et la première des sciences.

Comment faire des recherches scientifiques ? Si nous prenons pour science ce que les scientifiques de différentes époques ont fait passer pour science, alors nous perdons le sujet de l’histoire des sciences. Ainsi, Pierre Ramus au XVIe siècle. a défini le sujet de la physique comme l'étude d'abord du ciel, puis des météorites, des minéraux, des plantes, des animaux et des humains. Et même au XVIIIe siècle. la physique restait encore une science unique dans laquelle il n'y avait pas de division claire entre les domaines inorganique et organique. Quel critère de délimitation des époques peut-on identifier dans l’histoire des sciences ? Le type de rationalité peut servir de tel critère. On peut envisager le type de rationalité en décrivant les différentes réflexions d'Aristote, Platon, Bacon, Descartes, etc. Mais la plupart de ces réflexions sont des idéologèmes (c’est-à-dire de fausses idées sur la vraie science). Cela signifie que si nous suivons cette voie, alors notre travail se réduira à décrire ce type d’idéologies. Il est préférable de se concentrer sur l'aspect suivant : comment certaines caractéristiques de la science, de l'activité scientifique et de ses résultats (vérités) ont été rationnellement reflétées dans le cadre de concepts philosophiques et métaphysiques. Ensuite, le type de rationalité signifiera une certaine forme et un certain degré de correspondance de l'idéologème philosophique et épistémologique avec la situation historique réelle de la science. Par exemple, on peut comparer l’idéal de construction de la géométrie, que Platon et Aristote avaient en tête, avec la pratique réalisée des géomètres – les « Éléments » d’Euclide. Nous pouvons analyser de manière critique les aspects rationnels qui sont ancrés dans les concepts du passé, et ces concepts peuvent être corrélés non seulement avec la science, mais aussi avec la culture dans son ensemble, avec les problèmes du début (genèse) d'une science particulière, les prérequis à sa formation (mythe, religion, magie, philosophie, etc.). Ainsi, si l'on étudie la genèse de l'arithmétique ou de la géométrie, alors on ne peut se passer d'étudier les formes pré-rationnelles de ces sciences - la pratique de mesurer des parcelles, de compter sur les doigts, etc. Le problème est de comprendre les types historiques de rationalité en science, et cela s’exprime souvent en termes de révolution scientifique ou intellectuelle. Dans ce cas, nous parlons d'un changement des hypothèses et des paradigmes globaux (T. Kuhn), de « réforme intellectuelle » (A. Koyré) et d'un changement complet de la « garde-robe intellectuelle » (S. Toulmin). Comment ces processus se manifestent-ils ? En règle générale, la victoire soudaine de l'une des théories concurrentes entraîne son acceptation rapide et inattendue par la communauté scientifique et l'opinion publique.

Comment une connaissance irrationnelle devient-elle rationnelle ? Il existe plusieurs points de vue ou approches sur cette question. Les représentants du premier (O. Comte, G. Spencer, E. Taylor, J. Thompson, etc.) croyaient que la philosophie et la science étaient issues du mythe. Selon la deuxième approche (à laquelle adhéra notamment A.F. Losev), déjà au premier stade de développement, la science n'avait rien de commun avec la mythologie [2]. Une troisième option est également possible : le mythe a servi de point de bifurcation pour les deux premiers types de rationalité historiquement – ​​la logique formelle des Éléates[3] et la logique dialectique d’Héraclite.

Ainsi, le centre de notre attention est le problème de la rationalité. Qu'est-ce qui lui a causé un tel intérêt ? Le fait est que la question de la rationalité n'est pas seulement théorique, mais aussi vitale et pratique. La civilisation industrielle est une civilisation rationnelle, la science y joue un rôle clé, stimulant le développement de nouvelles technologies. La pertinence du problème de la rationalité est causée par l'inquiétude croissante concernant le sort de la civilisation moderne dans son ensemble, sans parler des perspectives futures de développement de la science et de la technologie. Ainsi, la base d'intérêt dans le problème de la rationalité est les crises générées par la civilisation technotronique.

La philosophie explore les formes historiques de la connaissance scientifique, constatant leur fragmentation, alors que la connaissance humaine a besoin d'unité. Mais sur quelle base est-ce possible ? On pense que la façon de penser pour l'Europe est l'herméneutique. C'est elle qui doit agir comme une « science universelle » (scientia universalis) et prendre la place qui appartenait autrefois à la métaphysique. Herméneutique (du grec hermeneuo - interpréter, interpréter, interpréter) - c'est un art et une théorie de l'interprétation. Elle vise à révéler le sens du texte, en fonction de ses fondements objectifs (le sens des mots) et subjectifs (les intentions des auteurs). L'intérêt pour l'herméneutique naît là où il y a incompréhension, désaccord, incompréhension. A l'époque hellénistique, les herméneutiques étaient les interprètes de messages dont le sens était fermé aux non-initiés, qu'il s'agisse des poèmes d'Homère ou des dires des oracles. Au Moyen Âge, l'herméneutique a été relancée en raison de la nécessité d'interpréter le sens de la parole de Dieu. Les origines de son émergence en tant que discipline spéciale - la doctrine des méthodes d'interprétation - remontent au milieu du XVIIe siècle, lorsque l'herméneutique "profane" est apparue, qui explore des textes de natures diverses. Le mérite de justifier l'herméneutique en tant que science appartient à Frédéric Schleiermacher (1768-1834), qui l'a défini comme la doctrine de "l'interconnexion des règles de la compréhension", et peu importe de quel type de texte il s'agit - "sacré", "classique" ou simplement "autoritaire". Schleermacher a offert de l'empathie pour le sujet de la connaissance, en tenant compte du texte et de la psychologie de l'auteur. Selon lui, cela permet une meilleure compréhension de l'auteur, du côté conscient et inconscient de son œuvre. Ainsi, la compréhension du texte est rendue dépendante des connaissances de l'auteur, c'est-à-dire le philosophe, par essence, réduit la philosophie des sciences à la grammatologie et à la psychologie, émasculant la philosophie proprement dite. Né un an avant la mort de Schleiermacher Guillaume Dilthey (1833-1911) poursuit ses recherches dans ce domaine. Son credo : on explique la nature, mais on comprend la vie spirituelle. Dilthey a compris la vie comme l'interaction des personnalités : la plénitude de la vie se manifeste dans les expériences et l'empathie des personnalités qui leur sont données dès le début.

L'âge du siècle Hans-Georg Gadamer (1900-2002) dans son livre "Vérité et Méthode" (M. : Progrès, 1988) a développé le concept d'herméneutique non seulement comme une méthode des humanités, mais aussi comme une sorte d'anthologie, rassemblant "sous le toit" des herméneutique tous les repères significatifs : pratique, vie, art, parole, dialogue, déclarant l'expérience herméneutique le principe fondamental de toute philosophie. L'art, selon le philosophe, est un organon : l'ayant abandonné, la philosophie paie de sa dévastation intérieure. L'essence de l'herméneutique se révèle dans l'étude de la science dans le système de la culture, bien qu'il soit problématique de la dériver directement de la culture.

La philosophie et la science sont corrélées en tant que types scientifiques et dialectiques de rationalité. Si la dialectique - l'art de l'argumentation - est utilisée comme méthode de conceptualisation des principes de développement, alors le type scientifique de rationalité est basé sur la reconnaissance : a) de la loi de conservation ; b) le principe de correspondance, qui affirme la continuité dans la connaissance ; c) le principe de cyclicité, le rythme des processus de développement ; d) le principe de relativité et de symétrie, d'identité, etc. En tant que type de rationalité, la dialectique n'est pas réduite au type scientifique de la rationalité, elle n'est pas remplacée par lui. La dialectique, en tant que science des lois du développement, possède des ressources heuristiques qui lui permettent de formuler l'idée des sources et des mécanismes du développement, de modéliser les principes du mouvement de la réalité sur la base de ses propres lois et catégories. Bien sûr, les lois de la dialectique peuvent révéler leur manque de contenu en physique, comme l'a noté le créateur de l'électrodynamique classique et de la théorie du champ électromagnétique. James Maxwell (1831-1879). Mais les ressources heuristiques de la dialectique sont incommensurablement supérieures à la physique ! Étant la science des lois du développement, la dialectique vise à créer de telles ressources heuristiques qui permettent au niveau théorique d'élaborer l'idée, la source et le mécanisme du développement, de modéliser les principes de mouvement de la réalité "actuelle", "devenante" avec sa diversité et sa non-formalisabilité. Toutes les lois et toutes les catégories de la dialectique y sont soumises.

Les sciences spéciales s'adressent à des phénomènes qui existent objectivement, c'est-à-dire en dehors de l’homme, indépendant de l’homme ou de l’humanité. La science forme des théories et des formules, en tenant compte de l'attitude personnelle et émotionnelle du scientifique face aux phénomènes étudiés et aux conséquences sociales auxquelles telle ou telle découverte peut conduire. La figure du scientifique, la structure de ses pensées et de son tempérament, la nature de ses confessions et préférences de vie dans le contexte de la recherche scientifique n'ont pas d'importance particulière. La loi de la gravité, les équations quadratiques, le système de Mendeleïev, les lois de la thermodynamique sont objectives. Leur action est réelle, elle ne dépend pas des envies, des humeurs et de la personnalité du scientifique. Le monde des idées du philosophe n’est pas seulement une couche statique de réalité, mais un tout dynamique et vivant, une variété d’interactions dans lesquelles s’entremêlent cyclicité et spontanéité, ordre et destruction, forces du bien et du mal, harmonie et chaos. L’esprit philosophe doit déterminer sa relation au monde. Par conséquent, la question principale de la philosophie est formulée comme une question sur le rapport de la pensée à l’être, de l’homme au monde. Ainsi, la dialectique est une sorte d'heuristique, un moyen d'obtenir de nouveaux résultats.

Les branches de la science procèdent de certaines idées qui sont acceptées comme quelque chose de donné qui ne nécessite pas de justification. Aucun des spécialistes étroits du processus d'activité de recherche directe ne se pose la question de savoir comment sa discipline est née, quelle est sa spécificité et sa différence par rapport aux autres disciplines. Si ces problèmes sont abordés, le naturaliste entre dans le domaine de l'histoire et de la philosophie des sciences.

Caractéristiques de la connaissance philosophique. La philosophie est basée sur la relation théorique-réflexive et spirituelle-pratique du sujet à l'objet. Elle a un impact actif sur la vie sociale à travers de nouveaux idéaux, normes et valeurs culturelles. Ses principales sections historiquement établies sont l'anthologie, l'épistémologie, la logique, l'éthique, l'esthétique, l'anthropologie, la philosophie sociale, l'histoire de la philosophie, la philosophie de la religion, la méthodologie, la philosophie des sciences, etc. Les principales tendances du développement de la philosophie sont associées à la compréhension des problèmes tels que le monde et la place dans l'homme, le destin de la civilisation moderne, l'unité et la diversité des cultures, la nature de la connaissance, de l'être et du langage humains.

La spécificité de l'appareil conceptuel dans la philosophie des sciences réside dans le fait que la philosophie cherche à trouver les fondements ultimes et les régulateurs de toute attitude consciente face à la réalité. Par conséquent, la connaissance philosophique ne prend pas la forme d'un schéma rationnellement ordonné, mais d'une discussion détaillée, d'une formulation détaillée de toutes les difficultés d'analyse, d'une comparaison critique et d'une évaluation des moyens possibles de résoudre le problème. D'où la maxime bien connue : non seulement le résultat atteint est important pour la philosophie, mais aussi le chemin menant à ce résultat.

« Physique, ayez peur de la métaphysique ! - Cette déclaration est attribuée à Isaac Newton. C'est sa protestation originale contre l'ambiguïté de la définition des concepts en philosophie. La science met en œuvre une forme assez stricte d'organisation de l'énoncé. Mais la philosophie est chaque fois confrontée à la construction d'une variété d'options de justification et de réfutation, guidée par le dicton : "Tout remettre en question".

Pour la science, traditionnellement, le mouvement vers l'avant cumulatif, c'est-à-dire mouvement basé sur l'accumulation de résultats déjà obtenus (le scientifique ne retrouvera pas la table de multiplication ni les lois de la mécanique classique !). Il peut être comparé à une tirelire dans laquelle, comme des pièces de monnaie, s'accumulent des grains de vraie connaissance. La philosophie, au contraire, ne peut se contenter d'emprunter des résultats déjà obtenus. Impossible, par exemple, de se satisfaire de la réponse à la question sur le sens de la vie, proposée par un penseur médiéval : chaque époque résout cette question à sa manière.

La spécificité de la philosophie se manifeste dans le fait qu'elle utilise une méthode de réflexion qui lui est propre : la méthode du retournement sur soi, le mouvement de navette, qui implique un retour aux prémisses d'origine et l'enrichissement d'un nouveau contenu. La philosophie se caractérise par une remise en cause des principaux problèmes de l'histoire de l'humanité, ce qui témoigne de sa réflexivité. La philosophie, pour ainsi dire, s'éloigne de la vie quotidienne, se déplaçant dans le monde des entités intellectuelles et concevables. Comme écrit Bertrand Russell (1872-1970), la philosophie est quelque chose d'intermédiaire entre la théologie et la science ; c'est un "no man's land" entre science et théologie, mais ouvert à la critique des deux côtés. Des questions insolubles du point de vue de la théologie et de la science s'avèrent être le sujet de la philosophie. Le langage de la philosophie est quelque chose entre le langage de la vie quotidienne, doté de catégories, et le langage de la poésie.

La philosophie n'est pas la science ! Cependant, il prétend être présent dans chaque science - avec ses propres concepts, son objectivité, l'idée de causalité, des lois de développement, un ensemble de concepts sur les régularités, etc. Sa nature scientifique est reléguée au second plan. Ce n'est pas de cela qu'il s'agit ! Il détermine les valeurs de valeur, les conséquences sociales des relations de cause à effet, détermine la place d'une personne dans le monde.

La philosophie est une sorte d'activité intellectuelle qui nécessite une communication constante avec les grands esprits du passé et du présent, a une certitude nationale, s'enrichit de l'expérience philosophique mondiale et, par conséquent, comme toute science, elle est internationale, a une unité universelle.

Thème 2. L'émergence de la science et les grandes étapes de son évolution historique

2.1. Pré-science et science. La formation des premières formes de pensée théorique

Le problème principal de ce sujet est le problème de la genèse de la pensée rationnelle. Quelle que soit la manière dont la rationalité est interprétée, il est évident que dans les premières étapes de l'histoire humaine et dans l'avenir, elle portait la marque profonde de la pensée mythologique. Une question naturelle en découle : qu'est-ce que le critère de rationalité ? Peut-être le nombre d'éléments mythologiques, d'associations, d'images, etc., que contient telle ou telle doctrine ? Non. Ce qui importe ici, c'est la manière très profonde de penser, qui est un indicateur du degré de rationalité d'une doctrine particulière. En d'autres termes, il ne faut pas partir du contenu, mais de la forme logique (structure) du texte historique étudié. A cet égard, nous nous intéressons au problème du passage du mythe au logos.

Le grec mythos (mythe) signifie parole, parole, conversation, conversation, plan, plan. Cependant, mythe et parole ne sont pas identiques. Le mythe va bien au-delà des expressions verbales, des récits et des intrigues. Le mythe, tel qu'il existait dans une communauté primitive, n'est pas une histoire qui se raconte, mais une réalité qui se vit ; ce n'est pas un exercice intellectuel ou une imagination artistique, mais un guide pratique des croyances et des comportements primitifs. Elle ne peut être comprise en dehors du contexte de la vie entière d’une communauté primitive.

La pensée primitive ne connaît pas l'abstraction. Le mythe, étant le «gardien» de l'expérience collective de la communauté tribale, était le régulateur du comportement. Il était organiquement lié au rituel et ils se produisaient souvent ensemble. Les rituels et les mythes transmis de génération en génération ont été observés sans aucun doute. En ce sens, la foi de l'homme primitif n'est pas une foi religieuse, mais la confiance par suggestion (suggestion). D'où le sentiment d'appartenance de l'individu au collectif de la communauté et la perception de soi à travers le "Nous", et donc la possibilité de "croire au mot", de délires, d'absurdités. Le pouvoir collectif dans le mythe et le rituel s'exerçait sur l'individu sous une forme symbolique-autoritaire. Cela a déterminé le rôle important de l'ancêtre - le totem. La fonction du mythe était de mobiliser les forces du collectif pour la cohésion, dont dépendait la survie de la communauté, du clan. Le mythe visait à subordonner autant que possible la vie de l'individu aux intérêts de la cohésion. Les mots du mythe sont identiques aux formes de comportement : tout changement de mots conduit au chaos.

La mythologie primitive a ses propres périodes historiques : 1) la période totémique (l'acte de manger un animal est au centre de l'attention mythologique) ; 2) la période de naissance (le motif dominant est l'acte productif : semailles, récoltes, etc.). Mais dans le premier comme dans le deuxième cas, le culte des fétiches, des totems et des divinités n'est pas encore un culte religieux. Les dieux dans la conscience mythologique remplissent des fonctions différentes de celles de la religion. Fétiches, totems, objets tabous sont des signes qui régulent les comportements (« cris », « commandes », etc.). L'attitude envers les divinités durant cette période n'était pas encore sacrée. Il existe d'innombrables descriptions dans les mythes d'actes consistant à déchirer et à dévorer son totem (le fondateur du clan) ou son dieu (par exemple, le grec Dionysos, dieux papous). Les dieux se comportent comme des humains, et les gens se sentent égaux aux dieux et leur montrent peu de respect. Une personne ne peut devenir un dieu, recevoir son pouvoir qu'en absorbant un totem, en le mangeant. Et Dieu peut devenir un homme, un chien et un requin.

Claude Lévi-Strauss (1908-2000) ont soutenu que le mythe archaïque a une fonction cognitive. Est-ce vrai ? C'est que l'activité vitale de la société primitive est syncrétique (indivisible), intégrale. L'activité de travail primitif, la vie quotidienne et la fabrication d'outils de travail sont imprégnées d'une conscience mythologique. L'activité productive de l'homme primitif ne s'est pas encore isolée dans un domaine indépendant et existe comme un moment d'un mode de vie intégral ; c'est tellement routinier et simple qu'il ne demande pas de réflexion ; ce n'est pas l'objet d'une réflexion, ce qui est impossible en raison de l'absence de pensée abstraite. L'activité instrumentale de l'homme primitif n'est pas perçue par lui comme quelque chose de spécial et n'est pas séparée d'actions telles que marcher, courir, nager. Des améliorations techniques mineures dans la vie quotidienne ont été réalisées au cours des siècles si lentement que la conscience publique n'a pas été en mesure de les distinguer, d'arrêter leur attention sur elles. Bien sûr, l'homme primitif fabrique habilement des articles ménagers: paniers, tissus, bijoux, étonnants de subtilité et de précision d'exécution. Mais ce n'est rien de plus que la dextérité, l'habileté, qui s'est formée à la suite de l'exercice. Au total, l'individu de l'époque primitive ne se sépare pas du genre, ne réfléchit pas sur lui-même. Un exemple est la recherche A. F. Losev (1893-1988) structures des langues Koryak, Aleut et Chukchi. Il s'est avéré qu'ici la pensée a du mal à disséquer les choses ; la mythologie est soit absente, soit balbutiante.

Mais la communauté primitive ne se sépare pas non plus du monde qui l’entoure, de la nature. La conscience mythologique ne connaît pas le dédoublement « monde - homme ». J.J. Frazier (1854-1941) dans le célèbre ouvrage "The Golden Bough" dit que l'homme primitif ne connaît pas les causes de nombreux phénomènes, bien qu'au cours d'une histoire millénaire il ait obtenu certains succès, par exemple, il a fait du feu en frottant un morceau de bois contre un morceau de bois. Ainsi, l'auteur décrit à quel point les prêtres missionnaires chrétiens ont été choqués par l'arrogance arrogante des sorciers, confiants dans leur capacité à influencer la nature, à la forcer à agir selon leurs besoins. Ernst Cassier (1874-1945) parle aussi d'un déni stable et constant du phénomène de la mort par le mythe, c'est-à-dire la nature n'existe pas dans la conscience mythologique comme un monde extérieur opposé à l'homme. D’où la question : comment la connaissance est-elle possible dans ce cas si son objet est absent ? Ici, il faut distinguer les concepts de « pensée » et de « cognition ». La pensée est plus large que la connaissance. L'homme primitif pense et le résultat de sa pensée s'exprime dans une activité objective. Mais la connaissance existe toujours sous une forme implicite. La cognition est la prochaine étape du développement de la pensée, qui doit nécessairement créer un moment de sa verbalisation, et donc une attitude critique envers soi-même (réflexion). Pour l'homme primitif, la connaissance n'existe pas comme quelque chose d'objectif, c'est-à-dire comme quelque chose d'objectif. indépendant de sa subjectivité. Les idées sur la connaissance ne se forment que dans la culture ancienne. (Ainsi, Socrate a dit : « Je sais que je ne sais rien », mais il a immédiatement ajouté : il est bien plus triste de se rendre compte du fait que « ses juges ne le savent même pas. »)

Philosophe anglais, l'un des fondateurs du postpositivisme Michel Polanyi (1891-1976) ont introduit la catégorie des connaissances implicites. Selon l'auteur, une personne possède à la fois des connaissances explicites, qui expriment l'expérience personnelle par des mots, et des connaissances implicites, qui sont impersonnelles, holistiques, non verbalisables par nature. La connaissance implicite (périphérique) ne se concentre pas sur la structure de l'objet, mais sur sa fonction. C'est une connaissance non critique. En ce sens, le mythe ne connaît pas le dialogue, qui contient l'exigence de critique des points de vue opposés. D'où la conclusion : puisqu'un homme primitif ne doute pas de l'ignorance, cela signifie qu'il sait tout, ce qui revient à ne rien savoir. La pensée devient cognition lorsqu'elle commence à réfléchir sur elle-même. L'auteur prouve qu'un esprit formellement formé, non attaché aux sources vives de la « connaissance personnelle », est inutile pour la science[4] .

La pensée mythologique n'explique pas, mais inspire. Cependant, on peut parler de cognition par rapport à la société primitive, mais seulement dans le sens où elle apparaît sous la forme d'une vision du monde. L'étymologie même du mot "savoir" en russe et en grec remonte à la sensation sensorielle (la perception). L'une des significations du mot "savoir" en russe est d'éprouver une sorte de sentiment, d'expérimenter. Et, par exemple, Homère a les expressions "penser avec les yeux", "penser avec le diaphragme", "penser avec les yeux". Dès lors, l'ensemble de ce qu'un primitif doit savoir se réduit à des interdits (ne pas se marier au sein d'un clan, ne pas commettre d'inceste, ne pas tuer une personne appartenant à son clan), c'est-à-dire le contenu de la connaissance est ce qui est interdit. Pendant la période de domination de la pensée mythologique, le besoin de connaissances scientifiques particulières ne se faisait pas encore sentir. Mais alors une autre question se pose : le mythe a-t-il une fonction ethnologique ? En partie oui. Ainsi, par exemple, de nombreux penseurs de l'Antiquité ont souvent eu recours aux mythologies pour expliquer les phénomènes sociaux et naturels. Cela s'est produit lorsqu'il n'y avait pas d'interprétation rationnelle des phénomènes (rappelez-vous le mythe de la caverne de Platon).

Mais quel est le rapport de la religion au savoir ? Hegel appelée conscience mythologique "immédiate", religion "naturelle". Mais il est très difficile de définir la frontière entre mythologie et religion. Leur culte est lié, qui dans les deux cas est autoritaire et absolu. En même temps, il existe de nombreuses différences entre eux.

1. Le mythe est une forme universelle et unique de conscience sociale à un certain stade. La religion, au contraire, apparaît avec l'art, la conscience politique, avec la séparation du travail intellectuel en une activité spécialisée indépendante.

2. Le porteur de la conscience mythologique est la société dans son ensemble. La religion surgit sur la base de la formation de groupes spéciaux d'ecclésiastiques (prêtres) qui sont professionnellement engagés dans la production de l'idéologie religieuse.

3. Il existe des différences dans les formes de régulation du comportement. Un mythe existe lorsque les individus ne se séparent pas les uns des autres et que les comportements sont directement régulés par des interdictions. La religion existe dans des conditions de différenciation communautaire, d'émergence de la propriété privée. Le comportement dans ce cas est régulé indirectement par l'impact sur le monde spirituel. La religion opère déjà avec les régulateurs politiques et juridiques. Il devient une institution sociale spéciale.

4. Contrairement au mythe, la religion divise, dédouble le monde en monde sacré (sacré) et mondain (profane). Dans la religion, il n'est plus possible de communiquer avec Dieu sur un pied d'égalité.

5. Dans la religion, il y a un autre dédoublement - le monde naturel et le monde surnaturel (merveilleux). La conscience mythologique ne connaît pas une telle distinction. Ainsi, les évangélistes mettent l'accent sur la capacité du Christ à faire des miracles afin de le distinguer de ceux qui sont impliqués dans le cours naturel de la vie et de la mort ; ses actions sont des exceptions à la règle.

6. La fonction de Dieu change dans la religion. Les dieux mythologiques ne connaissent pas la morale, les évaluations éthiques leur sont inapplicables. Le Dieu des religions est anthropomorphe. En même temps, il est sacré, car il est porteur des principes éthiques les plus élevés. L'éthique religieuse élève les impératifs moraux à l'absolu, car elle croit que le relativisme dans la moralité conduit inévitablement à l'immoralisme, à l'autodestruction de l'humanité. Ainsi, par exemple, Moïse mesure son activité conformément aux dix commandements, formulés comme des "impératifs catégoriques" universels et formant la base de la morale autonome.

Hegel considérait la religion comme une forme de connaissance, mais c'est une erreur. La religion, dans sa genèse, n'est pas subordonnée à la fonction de production de connaissances sous une forme objective ; il n'a pas de fonctions cognitives. La religion est le successeur de la mythologie et ne produit pas de connaissances sous une forme systématisée, encore moins théorique. (Le point le plus faible des religions, même les plus représentatives - le christianisme, le bouddhisme, l'islam - est leur compréhension de la nature et de la pensée humaine.) Pour le christianisme primitif, par exemple, le monde naturel, végétal et animal n'a pas d'intérêt indépendant, mais sert de une allégorie pour décrire le comportement humain et la moralité humaine. Les fonctions de la religion sont principalement régulatrices, réalisées sur une base psychologique suggestive et sacrée. Quant à la science, elle peut être définie comme la production de connaissances. Mais le problème est que la connaissance rationnelle, qui repose sur l’opposition de l’objet et du sujet, apporte au monde beaucoup de choses négatives. La science croit-elle que seul l’homme (la communauté humaine, la culture) donne du sens au monde ? La conséquence de ce type d’approche est la privation de la nature de sa signification ontologique. Ceci s'exprime notamment dans la transformation de la nature par la civilisation technotronique en une sorte de « matière première ». Mais comment résoudre le problème de la rationalisation et les différents types de crises qu’elle génère, par exemple celle environnementale ? La crise environnementale n'est pas essentiellement un produit de la civilisation industrielle dans sa forme objective et matérielle (sous forme de machines, d'usines, d'usines, de centrales électriques et nucléaires, etc.) ; C'est le produit d'un type particulier de mentalité caractéristique du Nouvel Âge, qui détermine notre attitude actuelle envers la nature et notre compréhension de celle-ci. Le concept du Nouvel Âge était que la nature est un objet utilisé par l’homme à ses propres fins. L'homme est un transformateur, un violeur. Dans ce cas, la « cause cible » est éloignée de la nature. C’est pourquoi il est si important de repenser philosophiquement le problème de la rationalité.

2.2. La formation de la science expérimentale dans la nouvelle culture européenne

Les universités, les écoles, l'autonomie rationnelle de la scolastique, sapant progressivement les fondements du Moyen Âge, commencèrent à « s'adapter » aux conditions de développement industriel du Nouvel Âge. Les universités sont progressivement devenues « nationales » : tout le monde pouvait y étudier. Des corporations d'étudiants et de maîtres surgirent sans distinction de classe. Les universités les plus anciennes de Bologne (1158), Paris (1215), Oxford (1206) se sont progressivement débarrassées des interdictions papales romaines sur l'enseignement des sciences naturelles et de la philosophie. La position de leader dans le processus de renouveau était occupée par l'Université d'Oxford, où existait traditionnellement un environnement favorable au développement des sciences naturelles. Les universités de cette époque enseignaient ce qu'on appelle le quadrium, combinant l'arithmétique, la géométrie, l'astronomie et la musique. Durant cette période, le rôle du savoir vécu est repensé. Des œuvres ont commencé à être publiées sans mentionner Dieu. L'héritage scientifique d'Aristote a été restauré. La devise de l’époque était celle de Roger Bacon : « La vérité est l’enfant de son temps, et la science est la fille non pas d’un ou deux, mais de toute l’humanité. » Les méthodes de recherche scientifique ont également changé : la déduction aristotélicienne a cédé la place à l'induction. Mais l’Inquisition continuait à lutter pour ses principes. Ainsi, l’exploit scientifique de R. Bacon, qui a étudié l’optique, l’astronomie et l’alchimie, anticipait de nombreuses découvertes ultérieures, a été « évalué » par elle à 15 ans de prison, et les travaux du scientifique ont été brûlés.

Un sort similaire est arrivé au scientifique italien, l'un des fondateurs des sciences naturelles exactes, professeur de mathématiques à l'Université de Pise Galilée (1564-1642). Galilée a posé les bases de la mécanique moderne : il a avancé l'idée de la relativité du mouvement, établi les lois de l'inertie, de la chute libre et du mouvement des corps sur un plan incliné, l'addition des mouvements ; découvert l'isochronisme des oscillations du pendule ; le premier à étudier la résistance des poutres; a construit un télescope avec un grossissement de 32x et a découvert des montagnes sur la Lune, quatre satellites de Jupiter, des phases près de Vénus, des taches sur le Soleil. Il défend activement le système héliocentrique du monde, pour lequel il est jugé par l'Inquisition (1633), qui l'oblige à renoncer aux enseignements de N. Copernic. Jusqu'à la fin de sa vie, Galilée fut considéré comme un "prisonnier de l'Inquisition" et fut contraint de vivre dans sa villa près de Florence.

Un autre exploit majeur dans le développement de la science a été accompli par un contemporain de Galilée, un homme d'État et philosophe anglais, le fondateur du matérialisme anglais. Francis Bacon (1561-1626). Dans son traité « Nouvel Organon » (1620), Bacon proclame l'objectif de la science d'accroître le pouvoir de l'homme sur la nature. Il avance la thèse « La connaissance, c'est le pouvoir » et crée un programme de généralisation à l'ensemble du monde intellectuel, propose une réforme de la méthode scientifique : nettoyer l'esprit des erreurs, se tourner vers l'expérience et la traiter par induction, dont la base est l'expérience. . La classification des sciences de Bacon, qui représentait une alternative à celle d'Aristote, a longtemps été reconnue comme fondamentale par de nombreux scientifiques et philosophes européens. Dans son ouvrage « Sur la dignité et l'accroissement des sciences », basé sur des critères psychologiques, Bacon divise les sciences en sciences historiques, poétiques et philosophiques. Dans le même temps, Bacon reconnaissait le droit à l'existence d'une interprétation religieuse de la vérité. Il appelait les erreurs de la connaissance « des idoles de la connaissance ».

mathématicien, physicien et physiologiste français René Descartes (1596-1650) est devenu le fondateur du rationalisme en philosophie. Dans le traité "La Règle pour la direction de l'esprit", il a formulé les règles de la connaissance scientifique, qui constituaient l'essence de la méthode de connaissance de Descartes :

1) n'accepter pour vrai que ce qui ne donne aucune raison de douter ;

2) décomposer des problèmes complexes en composants simples ;

3) organiser des éléments simples dans un ordre strict ;

4) faire des listes complètes et des images des éléments disponibles pour être sûr qu'il n'y a pas d'hypothèses.

Descartes considérait l'intuition, la lumière naturelle de la raison, la preuve de la capacité cognitive, comme le commencement de la connaissance ; la déduction lui apparaissait comme une intuition en action. Descartes est entré dans l'histoire de la philosophie des sciences en tant que représentant du dualisme, reconnaissant l'existence de deux substances indépendantes - l'étendue et la pensée.

L'émergence d'une nouvelle science européenne est devenue possible grâce à l'utilisation de la méthode expérimentale et sa combinaison avec la description mathématique. G. Galileo, F. Bacon et R. Descartes y ont joué un rôle remarquable.

La principale réalisation du New Age dans le domaine scientifique a été la formation d'un mode de pensée scientifique, caractérisé par la combinaison de l'expérience en tant que méthode d'étude de la nature avec une méthode mathématique et la formation d'une science naturelle théorique. Tout cela a eu un impact positif sur la dynamique de la nouvelle culture européenne. Au cours de cette période, le statut juridique de la science a également été considérablement renforcé. En 1662, la Royal Society of Naturalists a été créée à Londres sur la base de la Charte royale, et sa charte a été adoptée. La même année, l'Académie des sciences est créée à Paris.

2.3. La formation des sciences techniques et la formation de la philosophie de la technologie

Le terme "technologie" (du grec. techne - art, artisanat, compétence) combine deux aspects principaux : 1) outils, outils créés par l'homme ; 2) un ensemble de compétences, capacités, techniques, méthodes, opérations, etc., nécessaires pour activer les outils de travail (parfois ils sont définis par le terme "technologie"). La philosophie de la technologie en tant que direction de la philosophie des sciences n'a commencé à attirer l'attention en Russie qu'à la fin du XXe siècle. Cela était dû principalement à la dévaluation de la philosophie marxiste. Une autre raison d'un intérêt aussi tardif pour ce domaine de la pensée philosophique est liée aux spécificités du développement de la technologie. Selon certaines estimations, jusqu'à la fin du XIXe siècle, l'écart entre la recherche théorique et sa mise en œuvre était d'au moins 150 ans, bien que l'histoire du développement de la technologie témoigne de la vitesse croissante du développement technique du monde. À cet égard, la situation qui s'est développée au XXe siècle est révélatrice. Durant cette période, les découvertes se succèdent comme une avalanche : le vol du premier avion, l'invention d'un réfrigérateur, d'un réservoir, la découverte de la pénicilline, la création d'un radiotélescope, l'émergence du premier ordinateur, la découverte de l'ADN, sortie dans l'espace de l'homme, clonage, etc., autant de preuves de l'efficacité de l'activité humaine. Et voici ses coûts : la technologie asservit une personne, détruit sa spiritualité, conduit à la mort de la civilisation. Afin d'éviter les conséquences négatives du développement technique du monde, les activités technologiques et d'ingénierie ont besoin de directives précises qui tiennent compte de l'ampleur et de la gravité des problèmes d'interaction entre le monde naturel et le monde artificiel.

Les questions d'activité humaine instinctive et consciente intéressaient les scientifiques bien avant les premières expériences du grand physiologiste russe I. P. Pavlov. Ainsi, l’ancien philosophe grec Anaxagoras (500-428 av. J.-C.) croyait qu’en utilisant ses mains, l’homme était supérieur à tous les autres animaux. L'historien et philosophe arabe Ibn Khaldun (1332-1406), rejetant l'idée de la création de l'homme par Dieu, considérait la nature comme un grand tout interconnecté et en développement, où le monde minéral mène étroitement au monde végétal, et ce ce dernier au règne animal. Et tout cela repose sur le principe de causalité. Une personne, possédant la raison et la main, maîtrise l'artisanat pour fabriquer des outils et se protéger. Ces raisonnements du penseur ont constitué la base du concept instrumental de formation humaine qui, à la suite d'Ibn Khaldun, a été développé par Benjamin Franklin (1706-1790), Adam Smith (1723-1790) et d'autres. Ce problème a été étudié en détail dans les travaux Louis Noiret (1827-1897). Dans ses ouvrages "L'origine du langage", "Les outils et leur importance dans le développement historique de l'humanité", il a adhéré à la conviction que ce n'est qu'avec l'apparition des outils que la véritable histoire humaine commence. Noiret a associé ce phénomène à la pensée humaine, soulignant deux de ses caractéristiques. Premièrement, les outils servent la volonté de l'homme, son intellect. Ils sont eux-mêmes la création de la pensée rationnelle. En d'autres termes, la main humaine est un « organe du cerveau », un outil d'outils ! Le processus de travail sous l'influence d'outils affecte le plus directement le fonctionnement du cerveau et son développement, y compris le développement de tout le corps humain : "La main donne des leçons instructives à l'œil et à l'esprit." Deuxièmement, et cela découle du jugement précédent, la main subit des changements importants dans le processus d'activité de l'outil, grâce auxquels elle devient un facteur puissant dans le développement de l'esprit en raison de sa connexion organique. Mais qu'en est-il de la réflexion ? Selon Noiret, la pensée n'atteint que plus tard ce qui était déjà développé beaucoup plus tôt grâce à un travail qui précède la pensée, précède la pensée [5].

Mais le véritable fondateur de la philosophie de la technologie est le philosophe allemand Ernest Kapp (1808-1896). Non satisfait de la philosophie hégélienne, il commence à retravailler matérialistement l'héritage de Hegel sur la base du concept anthropologique de Ludwig Feuerbach (1804-1872). Kapp a été le premier à faire un pas audacieux - dans le titre de son travail, il a combiné deux concepts auparavant apparemment incompatibles "philosophie" et "technique". Au centre de son livre "Basic Directions in the Philosophy of Technology" se trouve le principe de la projection d'organes : une personne dans toutes ses créations reproduit inconsciemment ses organes et se connaît elle-même, sur la base de ces créations artificielles. Comme Noir, Kapp se concentre sur la main en tant qu'organe spécial ("l'organe de tous les organes"). Le prolongement « mécanique » des mains sont les yeux, que Kapp appelle les demi-membres, intermédiaires entre le monde extérieur des choses et le monde intérieur des nerfs. Une telle projection organique se manifeste dans le fait qu'une personne qui crée à son image et à sa ressemblance transforme le corps en échelles et normes pour la nature, selon lesquelles elle mesure ses divers phénomènes. Pied, doigt, ses articulations, en particulier le pouce, la main et le bras, l'envergure, la distance entre les jambes qui marchent et entre les extrémités tendues des bras, la largeur du doigt et des cheveux - comme mesure de longueur; une poignée, une bouche pleine, un poing, une tête, l'épaisseur d'un bras, d'une jambe, d'un doigt et de hanches - comme mesure de capacité et de volume ; instantané (clignotant) - comme mesure de temps. Tout cela était et reste partout chez les jeunes et les vieux, chez l'homme sauvage et cultivé, invariablement utilisé par des mesures naturelles. Selon Kapp, la projection d'organes peut être clairement tracée non seulement dans des outils à main primitifs ou simples, mais également dans des mécanismes et des structures techniques très complexes, tels que, par exemple, des machines à vapeur, des chemins de fer, etc.

La théorie de la projection d'organes de Kapp a été développée plus avant dans les études du sociologue et philosophe français Alfred Espinas, philosophe allemand Fred Bona, considérant la technologie comme un moyen d'atteindre le bonheur humain. Une contribution importante au développement de la philosophie nationale de la technologie a été apportée par un ingénieur mécanique russe Petr Klimentievitch Engelmeyer. Son rapport au IV Congrès international de philosophie en 1911 à Bologne était consacré à la justification du droit de la philosophie de la technologie à exister en tant que domaine scientifique particulièrement important. Révélant l'essence de la technologie, Engelmeyer écrit: "La technologie est la capacité d'agir rapidement sur la matière. La technologie est l'art de produire des phénomènes désirables. la base réelle de toute la culture de l'humanité" (cité par: Al-Ani N. M. Philosophie de la technologie : manuel / N. M. Al-Ani. Saint-Pétersbourg, 2004).

Thème 3. La structure des connaissances scientifiques

3.1. Classement scientifique

La classification (du latin сlassis - catégorie, classe et facio - je fais) est un système de concepts subordonnés (classes, objets) dans n'importe quel domaine de connaissance ou d'activité. La classification scientifique capture les relations régulières entre les classes d'objets afin de déterminer la place d'un objet dans le système, ce qui indique ses propriétés (par exemple, la systématique biologique, la classification des éléments chimiques, la classification des sciences). Une classification strictement et clairement effectuée, pour ainsi dire, résume les résultats de la formation d'une certaine branche de la connaissance et marque en même temps le début d'une nouvelle étape dans son développement. La classification contribue au mouvement de la science du stade de l'accumulation empirique des connaissances au niveau de la synthèse théorique. De plus, cela vous permet de faire des prédictions raisonnables sur des faits ou des modèles encore inconnus.

Selon le degré d'importance des bases de division, on distingue les classifications naturelles et artificielles. Si les caractéristiques essentielles sont prises comme base, d'où découle un maximum de dérivées, de sorte que la classification puisse servir de source de connaissances sur les objets à classer, alors une telle classification est dite naturelle (par exemple, le tableau périodique des éléments chimiques Éléments). Si des caractéristiques non essentielles sont utilisées pour la systématisation, la classification est considérée comme artificielle (par exemple, les index alphabétiques des matières, les catalogues nominaux dans les bibliothèques). La classification est complétée par la typologie, entendue comme une méthode scientifique basée sur la division de systèmes d'objets et leur regroupement à l'aide d'un modèle ou d'un type généralisé. Il est utilisé dans le but d'une étude comparative des caractéristiques essentielles, des relations, des fonctions, des relations, des niveaux d'organisation des objets.

La classification des sciences implique le regroupement et la systématisation des connaissances sur la base de la similitude de certaines caractéristiques. Ainsi, par exemple, Francis Bacon a fondé sa classification sur les caractéristiques de l'âme humaine, telles que la mémoire, l'imagination et la raison. Il attribuait l'histoire à la catégorie de la mémoire, la poésie à l'imagination, la philosophie à la raison. René Descartes a utilisé la métaphore d'un arbre pour classer. Le « rhizome » de cet arbre forme la métaphysique (la cause première !), le « tronc » symbolise la physique et la « couronne » comprend la médecine, la mécanique et l'éthique.

L'auteur du livre "L'histoire de la Russie de l'Antiquité à nos jours" a créé sa propre classification. V. N. Tatichtchev (1686-1750), qui sous Pierre I était en charge de l'éducation. En sciences, Tatishchev a distingué l'ethnographie, l'histoire et la géographie. Il considère que l'essentiel dans la classification des sciences est la connaissance de soi et le principe d'utilité, selon lequel les sciences peuvent être "nécessaires", "dandy", "curieuses" et "nuisibles". Aux sciences "nécessaires", Tatichtchev attribuait la logique, la physique et la chimie. L'art qu'il rattache à la catégorie des sciences « dandy » ; astronomie, chiromancie, physionomie - aux sciences "curieuses"; divination et sorcellerie - à "nuisibles".

Philosophe français, l'un des fondateurs du positivisme et de la sociologie Auguste Comte (1798-1857) a fondé la classification des sciences sur la loi sur les trois étapes de l'évolution intellectuelle de l'humanité. Il a construit sa classification selon le degré de diminution de l'abstraction et d'augmentation de la complexité des sciences : mathématiques, astronomie, physique, chimie, biologie, sociologie (physique sociale). En tant que caractéristique de classification, il a identifié les liens naturels réels qui existent entre les objets. Selon Comte, il y a des sciences liées, d'une part, au monde extérieur, et, d'autre part, à l'homme. Ainsi, la philosophie de la nature devrait être divisée en deux branches - inorganique et organique ; la philosophie naturelle couvre trois branches de la connaissance - l'astronomie, la chimie, la biologie. Comte a estimé qu'il était possible de continuer à structurer, étendant son principe de systématisation des sciences aux mathématiques, à l'astronomie, à la physique, à la chimie et à la sociologie. Il a justifié l'attribution de cette dernière à un groupe spécial par son développement sur sa propre base méthodologique, qui ne peut être étendue à d'autres sciences.

Historien de la culture et philosophe allemand Guillaume Dilthey (1833-1911) dans le livre "Introduction aux sciences de l'esprit" propose de séparer les sciences de l'esprit des sciences de la nature, extérieures à l'homme. Il considérait que le sujet des sciences de l'esprit était l'analyse des relations humaines, des expériences intérieures, colorées d'émotions, sur lesquelles la nature est "silencieuse". Selon Dilthey, une telle orientation peut établir un lien entre les concepts de « vie », « expression », « compréhension », qui n'existent pas dans la science, bien qu'ils soient objectivés dans les institutions de l'État, de l'Église et de la jurisprudence.

Selon un autre philosophe allemand, Henri Rickert (1863-1936), l'opposition entre sciences de la nature et sciences de la culture reflète l'opposition d'intérêts qui divise les scientifiques en deux camps. Dans sa classification, les sciences naturelles visent à révéler des lois générales, l'histoire traite de phénomènes individuels uniques, les sciences naturelles sont exemptes de valeurs, tandis que la culture règne en elles.

Friedrich Engels (1820-1895) considérait les formes de mouvement de la matière dans la nature comme le principal critère de classification des sciences.

L'expérience de la classification des sciences de l'académicien est curieuse V. I. Vernadsky (1863-1945). Au centre de ses intérêts scientifiques et philosophiques naturels se trouvait le développement d'une doctrine holistique de la biosphère - la matière vivante qui organise la coquille terrestre - et l'évolution de la biosphère vers la noosphère. Il fonde donc sa classification sur la nature des sciences. Selon la nature des objets étudiés, il distingue deux types de sciences : 1) les sciences qui embrassent l'ensemble de la réalité - la planète, la biosphère, le cosmos ; 2) les sciences liées au globe. Dans ce système de connaissances, il accorde une place particulière à la logique : elle couvre tous les domaines de la science - aussi bien les sciences humaines que les sciences et les mathématiques.

Philosophe soviétique, chimiste, historien des sciences, académicien BM Kedrov (1903-1985), ont proposé une classification à quatre niveaux, comprenant : a) les sciences philosophiques (dialectique, logique) ; b) sciences mathématiques (mathématiques, logique, cybernétique) ; c) sciences naturelles et techniques (mécanique, astronomie, physique, chimie, géologie, géographie, biochimie, biologie, physiologie, anthropologie) ; d) sciences sociales (histoire, archéologie, ethnographie, géographie économique, statistiques, etc.).

En ce qui concerne la classification des sciences, la discussion se poursuit aujourd'hui, alors que le principe de les diviser davantage selon les fondements, le rôle appliqué, etc. est dominant. Il est généralement admis que la méthode de classification la plus fructueuse est celle qui est basée sur les différences entre les six formes fondamentales de la matière : physique subatomique, chimique, physique moléculaire, géologique, biologique et sociale.

La classification des sciences est d'une grande importance pour l'organisation des activités de recherche, d'enseignement, d'enseignement et de bibliothèque.

3.2. La structure des connaissances empiriques et théoriques

Problème des méthodes de cognition scientifique. Le progrès scientifique n'est pas concevable en dehors du développement cognitif d'objets de complexité croissante (petits systèmes, grands systèmes, types de systèmes auto-développants, auto-apprenants, etc.). Le processus cognitif est associé à des méthodes de cognition. Dans ce cas, nous nous intéressons à un ensemble de questions liées à l'évolution des méthodes de connaissance scientifique. Ce problème a deux aspects : 1) amélioration de méthodes déjà existantes afin de les adapter à de nouveaux objets ; 2) construction de méthodes de cognition fondamentalement nouvelles. La tendance historique à cet égard est que la réflexion philosophique et méthodologique sur les méthodes utilisées en science a toujours pris du retard (en retard) sur la pratique scientifique de l'utilisation des méthodes. A cette occasion, le physicien et personnage public anglais J. D. Bernal (1901-1971) écrivait : « L'étude de la méthode scientifique est plus lente que le développement de la science elle-même. La doctrine trouve d'abord quelque chose, puis réfléchit sur les méthodes. Actuellement, la même tendance se dessine : les discussions se poursuivent sur les problèmes de modélisation, le rôle de l'expérience dans l'étude du micromonde, l'essence d'une approche systématique, etc. Les raisons à cela sont multiples. Premièrement, les idées métaphysiques sur le statut épistémologique de la méthode scientifique (son caractère supra-historique, intemporel), les réflexions sur l'indépendance de la méthode par rapport aux conditions socioculturelles de la connaissance scientifique et surtout aux phénomènes étudiés sont encore dominantes. Deuxièmement, le développement de problèmes de méthodes scientifiques n'inclut pas un large éventail de représentants de la communauté scientifique. Parallèlement, de nombreuses tâches de recherche nécessitent des efforts collectifs (dialectique de la vérité absolue et relative, problème de la méthode objective ; justification des nouvelles méthodes ; critères de la méthode scientifique ; rapport entre les critères scientifiques et le critère de la vérité de la connaissance, etc.).

En philosophie, la méthode est considérée comme un moyen de construire et de justifier un système de connaissances, comme le chemin (le chemin correct) de la connaissance. Mais cette interprétation convient plus aux métaphores qu’aux définitions scientifiques. Les mots « moyens », « méthode », « technique », qui expliquent le concept de méthode, ne contribuent pas non plus à clarifier son essence, puisqu'ils identifient la méthode avec une composante indépendante de l'activité cognitive (moyens). Le plus préliminaire est un groupe de définitions qui définissent la méthode comme une connaissance normative - un ensemble de règles, normes, principes régissant l'action cognitive (opérations, procédures) du sujet.

La structure de la méthode contient trois composants indépendants (aspects): 1) composant conceptuel - idées sur l'une des formes possibles de l'objet à l'étude; 2) composante opérationnelle - prescriptions, normes, règles, principes qui régissent l'activité cognitive du sujet; 3) un composant logique - les règles pour fixer les résultats de l'interaction d'un objet et des moyens de cognition.

La méthode est influencée par plusieurs facteurs : a) les types historiques de rationalité, reflétant les particularités des relations sujet-objet dans la pratique et la cognition ; b) créativité, acuité d'observation (perception), puissance d'imagination, développement de l'intuition; c) les fondements de la recherche scientifique (cela comprend l'image scientifique du monde, les idéaux et les normes de l'activité scientifique, les fondements philosophiques de la science) ; d) des connaissances scientifiques spécifiques, reflétant le degré de scientificité de l'objet étudié ; e) les facteurs subjectifs associés au soi-disant problème de compréhension, avec la connaissance personnelle.

Caractéristiques de la méthode empirique de cognition. Cette méthode de cognition est une forme de pratique spécialisée, étroitement liée à l'expérimentation (du latin experimentalum - test, expérience). L'émergence de l'expérience a influencé le développement de la pensée scientifique et théorique, qui est un type de communication réalisé à travers l'appareil logique et mathématique. Grâce à cela, une expérience de pensée, reflétée dans les travaux de G. Galileo, M. Faraday (1791-1867), J. Maxwell (1831-1879), L., est devenue une forme importante de pensée scientifique et théorique à l'époque moderne. (XVII - XIX siècles) Boltzmann (1844-1906), A. Einstein (1879-1955), N. Bohr (1885-1962), W. Heisenberg (1901-1976), etc.

Une expérience est un test des phénomènes étudiés dans des conditions construites et contrôlées. L'expérimentateur cherche à isoler le phénomène étudié dans sa forme pure, afin qu'il y ait le moins d'obstacles possible pour obtenir l'information souhaitée. La mise en place d'une expérience est précédée d'un travail préparatoire approprié : si nécessaire, son programme est élaboré ; des instruments spéciaux et des équipements de mesure sont fabriqués; la théorie est raffinée, qui agit comme un outil nécessaire pour l'expérience. Une telle expérience est le plus souvent réalisée par un groupe d'expérimentateurs qui agissent de concert, mesurant leurs efforts et leurs capacités. Une expérience scientifiquement fondée suppose la présence de :

- l'expérimentateur lui-même ou un groupe d'expérimentateurs ;

- les laboratoires (monde objectif de l'expérimentateur, fixé par ses limites spatiales et temporelles) ;

- objets à étudier placés dans le laboratoire (corps physiques, solutions chimiques, plantes et organismes vivants, personnes);

- dispositifs, objets directement influencés par les phénomènes étudiés et conçus pour fixer leur spécificité ;

- dispositifs techniques auxiliaires conçus pour renforcer les capacités sensuelles irrationnelles d'une personne et contribuer à son implication (ordinateurs, micro- et télescopes, amplificateurs divers).

Cependant, une expérience n'est pas un événement isolé, mais fait partie intégrante des programmes de recherche exploratoire ; il contribue à l'avenir du programme scientifique en traçant de nouvelles voies de recherche et en bouchant les impasses. Une expérience ne conduit pas à une théorie. Elle doit être répétée, variée afin d'identifier d'éventuelles erreurs subjectives dans l'organisation de l'expérience ou des lacunes dans le matériel (appareils, instruments). Il est également extrêmement important de prendre en compte les résultats d'autres expériences qui révèlent d'autres points, par exemple les processus physiques.

Ainsi, l'une des caractéristiques de la physique classique était qu'elle avait un caractère anthropomorphique dans la structure de l'organisation (M. Planck). La division des connaissances physiques en domaines était déterminée par les caractéristiques des sens humains (le système de "dispositifs" obtenus par lui au cours de l'évolution biologique). Quant à la physique moderne, il est généralement admis qu'elle est née avec le développement de théories fondamentales telles que la théorie de la relativité et la mécanique quantique. Dans le même temps, le développement des connaissances expérimentales a eu un impact énorme sur sa formation. Ainsi, en 1895, V. K. Roentgen (1845-1923) découvrit un nouveau type de rayons ; en 1896, A. A. Becquerel (1852-1908) découvre le phénomène de la radioélectronique, et un an plus tard, J. J. Thomson (1856-1940) enregistre expérimentalement la première particule électronique. Ces découvertes ont conduit à deux conséquences: premièrement, il a fallu créer de nouveaux équipements complexes, et deuxièmement, diviser les activités de recherche spéciales en théoriques et expérimentales.

Mais l'expérience ne s'est pas formée dans des conditions de vide théorique : isolée de la théorie, elle se transforme en une sorte d'activité sanctifiée par la magie avec des instruments (comme l'alchimie médiévale). Cependant, la théorie sans expérience n’est qu’un jeu formalisé de symboles et de catégories. Un dialogue entre expérience et théorie est nécessaire, et pour cela, d'une part, théorie et expérience doivent être relativement indépendantes et, d'autre part, elles doivent avoir un contact effectif, ressenti à l'aide de modèles intermédiaires.

Méthodes de connaissances théoriques. La théorie (du grec theoria - considération, recherche) au sens large désigne un type d'activité visant à obtenir une connaissance raisonnable et objectivement vraie de la réalité naturelle et sociale en vue de son développement spirituel et pratique. Au sens étroit, la théorie est une forme d'organisation du développement des connaissances scientifiques. « La théorie, c'est les filets : seul celui qui les lance attrape » (Novalis). La théorie remplit des fonctions très importantes en science : informative, systématisante, explicative, pronostique. Pour révéler l'essence de la théorie, des oppositions binaires sont utilisées : "théorie - pratique", "théorie - empirique", "théorie - expérience", "théorie - opinion", etc. La connaissance théorique est dotée des propriétés d'universalité et de nécessité, d'ordre, d'intégrité du système, d'exactitude, etc.

Traditionnellement, on croyait qu’il n’y avait rien de plus pratique qu’une bonne théorie. La pratique de la théorisation est née dans la Grèce antique. Les penseurs de cette époque étaient unanimes sur le fait que la clé pour comprendre la réalité était la pensée théorique (épistémè) par opposition à l’opinion (doxa). La prémisse philosophique initiale de toutes les autres théories des sciences naturelles est la doctrine de l’harmonie cosmique. Les idées d'Aristote sur la valeur intrinsèque des sciences théoriques se transforment en prescriptions éthiques et en idéal. Plus tard, la mécanique de Galilée-Newton est devenue un modèle (paradigme) pour les sciences naturelles expérimentales et mathématiques des XVIIIe et XIXe siècles.

Le théoricien ne peut pas s'adresser directement à la nature. Il crée son image intérieure du monde à partir d'impressions, de détails de l'expérience de quelqu'un d'autre, les écrit dans le langage de la logique et des mathématiques. C'est une expérimentation de pensée. Son produit est un modèle idéal, un fragment de réalité.

La théorie est soumise à une dynamique historique. Par exemple, dans la recherche mathématique jusqu'au XXe siècle. l'approche dite « standard » a prévalu, selon laquelle la théorie et son rapport à l'expérience ont été choisis comme unité initiale d'analyse (cellules). Plus tard, il s'est avéré que la recherche empirique est intimement liée au développement de la théorie, et il est impossible d'imaginer la vérification de la théorie par des faits sans tenir compte de l'influence antérieure de la théorie sur la formation des faits scientifiques. En d'autres termes, les niveaux de connaissances empiriques et théoriques diffèrent selon les sujets, les moyens et les méthodes de recherche. Dans une étude réelle, ces deux niveaux interagissent toujours.

L'expérience de pensée comme méthode de connaissance théorique associés au développement de la technologie logique (symboles et technique d'enregistrement des calculs). Les signes et les symboles sont une partie essentielle des méthodes de compréhension de la réalité (physique, chimique, etc.). La fonction principale des signes est qu'ils se construisent : à un certain stade de développement, les modèles de signes qui les composent deviennent indépendants et indépendants de la parole et agissent comme une forme de naissance et d'existence de la pensée, comme un moyen de son écoulement. , un moyen d'une expérience de pensée. Ainsi, une expérience de pensée intègre deux niveaux de réflexion de la réalité : sensoriel-objectif et conceptuel-signe.

Méthode système (structurelle-fonctionnelle) - une autre méthode de connaissance théorique. Un système est un objet intégral, composé d'éléments qui sont en relations mutuelles. Les relations entre les éléments du système forment sa structure, de sorte que parfois dans la littérature, le concept de système est assimilé au concept de structure. Les traditions de la recherche systémique se sont développées dans la seconde moitié du XXe siècle. Etiologiquement, la notion de système désigne un ensemble composite, un assemblage. Le concept de système, qui implique la considération d'un objet du point de vue de l'ensemble, inclut l'idée d'une certaine association de certains éléments et la relation entre ces éléments. La théorie du système se révèle à travers les notions d'« intégrité », « élément », « structure », « connexions », etc. Le concept de recherche systémique a été utilisé dans les travaux de G. Spencer (1820-1903), E. Durkheim (1858-1917), K. Lévi-Strauss (1908-2000), M. Foucault (1926-1984), J Lacan (1901-1981), R.K. Merton (1910-2001), T. Parsons (1902-1979) et d'autres.

La place centrale dans la logique de la pensée systémique est occupée par les catégories de la partie et du tout, le principe de division du tout en parties (analyse) et la synthèse des parties en intégrité. L'analyse - scission, synthèse - intègre, mais cela ne suffit pas encore à révéler l'essence des phénomènes connaissables. La pensée scientifique moderne est obligée de décrire et d'étudier séparément certains des aspects fondamentaux du mouvement matériel : stabilité et variabilité, structure et changement, être et devenir, fonctionnement et développement. C'est ici que se concentrent les principales difficultés et collisions logiques et mathématiques du processus cognitif. Les concepts de base dans ce cas sont "système", "fonctions", "structure", "autonomie", etc.

De nombreux composants deviennent un système si leur relation s'exprime par l'émergence de propriétés qui ne sont pas inhérentes à chaque élément individuel et de fonctions qui ne peuvent être exécutées par chaque élément séparément. Les composants peuvent être des connexions de sujets, des relations, des états, des niveaux de développement, etc. (les unités originales qui forment le système). Plus les relations entre les éléments sont différenciées, plus le système est organique (non linéaire). Les différentes natures et différents degrés de connexion entre les éléments sont exprimés par la notion de « densité ». Nous parlons donc d'une approche par composants système. Cette approche devrait évoluer vers une approche systémique-structurelle, et cette dernière vers une approche structurelle-fonctionnelle, c'est-à-dire le système au niveau théorique doit être considéré comme un ensemble de relations de fonctionnement et de développement. A cet égard, il existe deux modèles extrêmement abstraits : un ensemble superdatif (le tout détermine entièrement les propriétés des parties) et un ensemble sommatif (les composants ont leur propre essence et ne remplissent pas les fonctions générales du système). Cependant, en réalité, il n’y a ni élémentalité ultime ni intégrité ultime.

La structure du développement est un ensemble de lois de changement dans des états liés. Dans tout objet, le développement personnel et le développement réel (évolution) sont distingués. Pas un seul système ne se développe de manière isolée, non seulement en raison de l'échange d'informations avec l'énergie environnante (qui s'effectue via des composants), mais également en raison de l'influence des systèmes les uns sur les autres. La base du processus de développement, c'est-à-dire l'auto-développement des systèmes (le système logique de la réalité), explore l'analyse structuralo-génétique. Ici, le chercheur est distrait des influences extérieures et montre le mécanisme direct du développement du système, dont la source est ses contradictions internes.

Il est nécessaire de distinguer les concepts de développement absolu et relatif (auto-développement). On peut parler de l'absolu du développement par rapport aux grands systèmes, puisqu'ils n'ont rien d'extérieur. Ils parlent de la relativité du développement par rapport à des systèmes réellement existants, car par rapport à eux il y a d'autres systèmes externes.

Les étapes suivantes du développement du système sont distinguées.

1. La préhistoire d'une nouvelle intégrité : il y a accumulation de « matériaux de construction pour l'émergence d'une autre qualité (« Les choses ne sont pas encore quand ça commence », G. W. F. Hegel).

2. Étape de formation (début d'un nouvel objet, Système d'organes). Les composants du système sont adaptés à la nouvelle structure ; les composants qui ne peuvent pas être transformés et subordonnés au nouveau meurent et sont éliminés ; les fonctions du système sont coordonnées.

3. Le système fonctionne sur sa propre base : les fonctions des composants et de la structure sont coordonnées ; les capacités du système sont maximisées.

Il convient de tenir compte du fait que les méthodes systémiques structurelles et systémiques génétiques sont de nature abstraite. Ils sont abstraits des caractéristiques directement "matérielles" de l'être, les reproduisent à travers des relations et des fonctions. Ainsi, l'énergie est considérée comme un support d'informations et le substrat matériel - comme son code. Cependant, le problème de la distraction du substrat demeure. Par exemple, lorsque nous additionnons des vitesses, nous faisons abstraction des différences entre un oiseau, un avion, une personne, une voiture. D'où l'opinion que la science ne traite pas du tout des substrats. En particulier, le structuralisme met en avant l'idée d'anti-substantialisme : l'Univers n'est pas constitué d'objets ni même de « matière », mais uniquement de fonctions ; les objets sont des points d'intersection de fonctions.

La méthodologie structurelle du système est un phénomène temporel. Il est nécessaire. Cependant, se concentrer uniquement sur la reproduction fonctionnelle de la réalité, sans prendre en compte la valeur intrinsèque de ses composantes, les spécificités de la perception humaine et de la mesure humaine, conduit à une absolutisation du rôle de la science et du scientisme. Le déni d’une personne est toujours précédé du déni des choses. Ainsi, par exemple, d'un point de vue fonctionnel, la vie peut naître à la fois sur une base protéique et sur une base de silicium ou autre. Cependant, nous ne connaissons que la vie biologique terrestre – notre version de la vie basée sur les apports de carbone. Ou un autre exemple : un robot électromécanique à base de silicium se comportera comme un humain. Faut-il le considérer comme tel ? Dans le même temps, si l'employé exerce régulièrement sa fonction et réalise des bénéfices, alors l'employeur peut ne pas s'intéresser du tout à ses pensées, à ses sentiments, à son « substrat spirituel » : « Quel est ce soldat, quel est celui-là » ( B. Brecht).

3.3. Méthodologie dans la structure des connaissances scientifiques

La méthodologie en tant que doctrine de la méthode de construction de l'activité humaine est traditionnellement importante dans la philosophie des sciences. Elle est limitée par une certaine gamme d'exigences, de principes, d'attitudes, de normes qui se sont développées dans l'expérience de l'humanité. Il existe une interdépendance entre la méthodologie et les connaissances. Ainsi, la méthodologie peut être comprise comme un ensemble de moyens d'organisation (principes, approches, méthodes, méthodes, techniques) d'activités cognitives et disciplinaires.

La dynamique des processus cognitifs a un impact significatif sur l'amélioration non seulement des méthodes de cognition, mais aussi de la philosophie, qui, à son tour, remplit une fonction méthodologique par rapport aux sciences individuelles. Il prescrit les normes et les règles de la recherche pour les disciplines scientifiques, et avec la clarification de la nature des problèmes et des paradoxes qui nécessitent le traitement de l'appareil cognitif des sciences individuelles, la clarification des conditions de la cognition, il crée une "tension méthodologique" qui est résolu en tenant compte de la vie quotidienne. Cette situation indique le caractère incomplet de la méthodologie, la nécessité de sa corrélation constante "après" le temps, les orientations de vie changeantes des personnes.

La méthodologie de la science combine un ensemble de formes de collecte et de traitement d'informations scientifiques soumises à un traitement empirique, théorique, métathéorique, y compris la description, la généralisation, la classification, l'explication, la prédiction, la compréhension, l'idéalisation, la preuve, l'interprétation, etc. En plus de cela, il est possible d'utiliser des méthodes scientifiques particulières de cognition, applicables à certaines branches de la connaissance scientifique.

La classification des méthodes des sciences selon la nature du produit résultant (connaissance) prévoit trois classes principales :

1) méthodes de connaissance empirique : expérimentation, description, abstraction, induction, extrapolation, etc. ;

2) les méthodes de la connaissance théorique : idéalisation, expérimentation mentale, modélisation mathématique, organisation logique des connaissances, preuve, interprétation, etc. ;

3) méthodes de connaissance métathéorique : analyse des fondements des théories scientifiques, interprétation philosophique du contenu et des méthodes de la science, évaluation de la signification sociale et pratique du contenu des théories scientifiques, etc.

Parmi les différents concepts de la philosophie des sciences, il y a les "leaders" et les "outsiders" (VA Kanke). Ainsi, la philosophie analytique est considérée comme plus établie que, par exemple, la philosophie postmoderne. La reconnaissance de la cohérence des enseignements philosophiques est l'un des problèmes modernes de la méthodologie. « Une théorie est incohérente si elle inclut à la fois l'énoncé A et sa négation du non-A. Si des contradictions apparaissent dans la théorie, alors elles tendent à s'en débarrasser. A cet égard, de nouveaux axiomes sont choisis. théorie est complète si toutes ses propositions sont dérivables (les axiomes eux-mêmes n'ont pas besoin d'être déduits). Si, cependant, des propositions non dérivables de son appareil se trouvent dans la composition de la théorie, alors il est nécessaire d'en décider " [6] . Et plus loin : "La pratique de la recherche scientifique montre qu'il ne faut pas se précipiter pour envoyer la théorie au "gaspillage". Ils conservent leur "capacité de travail" avec la dépendance partielle des axiomes les uns sur les autres... s'ils ne détruisent pas le système théorique"[7] .

Thème 4. La dynamique de la science et le processus de génération de nouvelles connaissances

4.1. Facteurs socioculturels dans le développement de la science

La variabilité est une propriété universelle de toutes les formations matérielles et spirituelles. Le développement, conséquence de la variabilité inhérente à tous les phénomènes, est dû aux facteurs de l'environnement interne et externe. Au sens ordinaire, le développement est associé au concept de progrès. La science en tant que branche spéciale et systématisée de la connaissance est soumise à cette régularité. Les changements interviennent lorsque l'environnement intellectuel permet la "survie" des populations qui s'y adaptent le mieux. Les changements les plus importants concernent le remplacement des matrices de compréhension elles-mêmes, ou les normes théoriques les plus fondamentales.

Les lois de la science tendent à refléter adéquatement les lois de la nature. Cependant, comme ils considéraient Johannes Kepler (1571-1630) et Nicolas Copernic (1473-1543), les lois de la science ne doivent être comprises que comme des hypothèses. Dans l'ouvrage "Connaissance et illusion", le physicien et philosophe autrichien Ernst Mach (1838-1916) a cherché à prouver que la conscience est soumise au principe d'économie de la pensée, et que la science naît de l'adaptation d'une idée à un certain domaine d'expérience. Toute cognition est une expérience psychologique qui nous est biologiquement utile. Selon le scientifique, le désaccord entre les pensées et les faits, ou le désaccord entre les pensées, est la source du problème. Mach a vu un moyen de sortir de cette difficulté dans l'application d'une hypothèse qui suscite de nouvelles observations qui peuvent la confirmer ou l'infirmer. Ainsi le sens d'une hypothèse réside dans le prolongement de l'expérience : une hypothèse est une « perfection de la pensée instinctive ».

Le développement de la science est dû à deux groupes de facteurs. Le premier groupe est celui des facteurs intellectuels intrascientifiques qui déterminent l'émergence d'innovations théoriques. Le deuxième groupe est constitué de facteurs non scientifiques (sociaux, économiques) qui déterminent la consolidation ou la répulsion de l'une ou l'autre variante conceptuelle.

Il s'avère souvent que le rôle moteur dans le développement de la science appartient à l'élite scientifique, qui est porteuse de la rationalité scientifique. La nature changeante de la science s'incarne dans les conditions changeantes des activités des scientifiques, c'est pourquoi le rôle des dirigeants et des autorités dans la communauté scientifique est si important. Les générations successives de scientifiques incarnent le changement historique dans les procédures d'explication scientifique. Le contenu de la science apparaît donc comme le transfert d'un ensemble d'idées intellectuelles à la génération suivante dans le processus d'apprentissage. Le développement de nombreux domaines scientifiques est associé aux activités des écoles scientifiques. En particulier, la formation de la philosophie s'est effectuée dans le cadre d'écoles philosophiques spécifiques et singulières qui ont vu le jour au cours de l'Antiquité. Souvent, les écoles étaient désignées par le nom d'un scientifique exceptionnel - le fondateur de l'école (par exemple, l'école Rutherford, l'école Bohr, l'école Sechenov, etc.). Les écoles scientifiques ont de tout temps rempli la fonction de transmission des connaissances.

Parmi les facteurs socioculturels du développement de la science, la présence du potentiel scientifique de la société joue un rôle important - ses opportunités réelles, ressources déterminées par la souveraineté pour les découvertes scientifiques (qui sont généralement prises en compte par l'économie de la science). Dans le même temps, les indicateurs quantitatifs du potentiel scientifique doivent être considérés en même temps que ses indicateurs qualitatifs.

Le problème du potentiel scientifique découle de la connaissance de soi de la science, de sa conscience de sa signification sociale, des conditions préalables et des possibilités de son développement, qui, à son tour, est associée au développement de la société elle-même. Ce dernier, s'intéressant à l'application pratique de la science, s'intéresse également au fait que la science a le potentiel de son développement ultérieur et de son application dans la pratique sociale. La dialectique des rapports entre société et science est telle que la réalisation du potentiel scientifique entraîne une élévation du niveau de développement économique, culturel et mesure des possibilités de cette société dans la connaissance des lois de la nature, le développement de la société et l'homme.

4.2. Formation des connaissances théoriques et leur justification

La formation des connaissances théoriques en philosophie des sciences est l'un des aspects importants de son développement. Évidemment, la science ne peut exister sans l'existence corrélative de connaissances factuelles et théoriques, individuelles et générales, perceptives et cognitives (accompagnement mutuel de sentiments et de pensées), d'énoncés individuels et universels. La corrélation de ces concepts se manifeste aux niveaux événementiel-quotidien, perceptuel-cognitif, logico-linguistique.

La classification joue un rôle important dans la formation des connaissances scientifiques : elle facilite le passage de la science du stade de l'accumulation empirique des connaissances au niveau de la synthèse théorique. Basée sur des fondements scientifiques, la classification n'est pas seulement une image détaillée de l'état de la science, mais aussi de ses fragments ; vous permet de faire des prévisions raisonnables concernant des faits et des modèles encore inconnus.

Les fondements de la science comprennent les principes fondamentaux, l'appareil conceptuel, les idéaux et les normes de la recherche scientifique. La maturité d'une science particulière peut être jugée par sa correspondance avec l'image scientifique du monde. Selon la classification moderne, les sciences sont divisées, d'une part, en sciences naturelles, techniques et sociales, d'autre part, elles distinguent les sciences fondamentales et appliquées, théoriques et expérimentales. Quand on parle de « big science », de « la science de pointe », on insiste sur son caractère hypothétique. La science moderne se développe en tenant compte de la spécialisation profonde, ainsi qu'aux jonctions des domaines interdisciplinaires, ce qui indique son intégration. Toutes les sciences ont en commun leurs propriétés intégratrices : a) des idéaux et des normes de cognition, caractéristiques d'une époque donnée et concrétisés par rapport aux spécificités du domaine étudié ; b) image scientifique du monde; c) fondements philosophiques. Ainsi, les propriétés intégratrices impliquent le fonctionnement et le développement de la science dans son ensemble, ainsi que de ses diverses branches, sur des principes axiologiques (valeurs) et méthodologiques communs.

Modèles et lois théoriques primaires. Dans le processus de cognition, la formation de modèles et de lois théoriques primaires a une certaine signification. Le concept de "modèle" (du latin module - mesure, échantillon) signifie la norme, l'échantillon (standard, standard). Dans la logique et la méthodologie de la science, un modèle est compris comme un analogue, une structure, un système de signes, qui sert à déterminer la réalité sociale et naturelle générée par la culture humaine - l'original, élargissant les connaissances sur l'original, construisant l'original, le transformant . D'un point de vue logique, une telle distribution est basée sur les relations d'isomorphisme et d'homomorphisme qui existent entre le modèle et le fait qu'avec son aide une image isomorphe ou homomorphe d'un objet est modélisée. Ces relations sont des relations d'égalité. Le modèle peut acquérir le statut d'une loi - une relation nécessaire, essentielle, stable, récurrente entre les phénomènes. La loi exprime le lien entre les objets, les éléments constitutifs d'un objet donné, entre les propriétés des choses, et aussi entre les propriétés à l'intérieur d'une chose. Il y a des lois de fonctionnement, des lois de développement. Ils sont de nature objective, ils se caractérisent par des schémas statistiques et dynamiques. L'action des lois est déterminée par les conditions de fonctionnement : dans la nature elles agissent spontanément, dans la pratique sociale, l'influence régulatrice d'une personne est possible.

L'analogie. Dans la recherche théorique, l'analogie joue un certain rôle (du grec analogia - correspondance, similarité). Lorsqu'on considère un objet (modèle), ses propriétés sont transférées à un autre objet moins étudié ou moins accessible. Les conclusions obtenues par analogie ne sont, en règle générale, que plausibles ; ils sont l'une des sources des hypothèses scientifiques, du raisonnement inductif et jouent un rôle important dans les découvertes scientifiques. Le terme « analogie » est également considéré au sens d'« analogie de l'existence », « analogie de l'être » (lat. analogia entis). Dans le catholicisme, c'est l'un des principes de la scolastique, qui justifie la possibilité de connaître Dieu à partir de l'existence du monde qu'il a créé. L'analogie a joué un rôle énorme dans la métaphysique d'Aristote, qui l'a interprétée comme une forme de gouvernement d'un principe unique dans des corps uniques. La signification de l’analogie peut être comprise en se référant au raisonnement des penseurs médiévaux Augustin le Bienheureux et Thomas d’Aquin. Augustin a écrit sur la similitude entre le Créateur et sa création, et Thomas d'Aquin a considéré les « analogies des êtres », qui témoignent de la répartition inégale et ambiguë de la perfection dans l'univers.

Les chercheurs modernes distinguent les types d'analogies suivants : 1) l'analogie des inégalités, lorsque différents objets portent le même nom (corps céleste et corps terrestre) ; 2) analogie de la proportionnalité (santé physique - santé mentale) ; 3) analogie d'attribution, lorsque les mêmes relations ou qualités sont attribuées à des objets différents (mode de vie sain, corps sain, société saine, etc.).

Selon les chercheurs, l'analogie entre le mouvement d'un corps abandonné et le mouvement des corps célestes a joué un rôle important dans la formation de la mécanique classique. L'analogie entre objets géométriques et algébriques a été réalisée par Descartes en géométrie analytique. L'analogie du travail sélectif dans le pastoralisme a été utilisée par Darwin dans sa théorie de la sélection naturelle. L'analogie entre les phénomènes lumineux, électriques et magnétiques s'est avérée fructueuse pour la théorie du champ électromagnétique de Maxwell[8] . Les analogies sont utilisées dans l'urbanisme moderne, l'architecture, la pharmacologie, la médecine, la logique, la linguistique, etc.

Ainsi, le raisonnement par analogie permet d'assimiler un nouveau phénomène unique à un autre phénomène déjà connu. Avec un certain degré de probabilité, l'analogie vous permet d'élargir les connaissances en incluant de nouveaux domaines dans leur champ d'application. Hegel appelait l'analogie "l'instinct de la raison".

Souvent, l'inventeur (écrivain) du concept, les termes surgissent par intuition, par hasard. Pour confirmer l'exactitude ou l'inexactitude des concepts proposés, vous pouvez utiliser le concept du logicien et de l'historien de la connaissance Carl-Gustav Hempel (1905-1997). Voici l'essentiel de son concept.

1. Les termes théoriques remplissent ou ne remplissent pas leur fonction.

2. Si les termes théoriques ne remplissent pas leurs fonctions, alors ils ne sont pas nécessaires.

3. Si les termes théoriques remplissent leurs fonctions, alors ils établissent des liens entre les phénomènes observés.

4. Ces connexions peuvent être établies sans termes théoriques.

5. Si des connexions empiriques peuvent être établies même sans termes théoriques, alors les termes théoriques ne sont pas nécessaires.

6. Par conséquent, les termes théoriques ne sont pas nécessaires tant lorsqu'ils remplissent leurs fonctions que lorsqu'ils ne remplissent pas ces fonctions.

En 1970, Hempel, utilisant des moyens de recherche logiques et mathématiques modernes, a d'abord montré l'inexactitude de la définition de Popper de la crédibilité. Contre le scepticisme Karl Popper (1902-1994), exprimé dans sa maxime « Nous ne savons pas, nous ne pouvons que deviner », des contre-arguments irréfutables ont été trouvés. Une hypothèse – une forme spécifique de compréhension de la vérité objective – devient une théorie fiable lorsque des conclusions sont tirées de son hypothèse de base qui permettent une vérification pratique. Les résultats négatifs des expériences individuelles sont-ils le « verdict » final de cette hypothèse ? Hempel pensait que non, parce que :

a) une interprétation erronée de ces expériences est possible ;

b) il est possible de confirmer d'autres effets prédits par cette hypothèse ; c) l'hypothèse elle-même permet son développement ultérieur et son amélioration.

Relation entre la logique de découverte et la logique de justification. Dans sa forme, la théorie apparaît comme un système d'énoncés cohérents et logiquement interconnectés. Les théories utilisent un appareil catégorique spécifique, un système de principes et de lois. La théorie développée est ouverte à la description, à l'interprétation et à l'explication de faits nouveaux, et est également prête à inclure des constructions métathéoriques supplémentaires : hypothético-déductives, descriptives, inductives-déductives, formalisées à l'aide d'un appareil mathématique complexe. Thomas Kuhn (1922-1996), énumérant les caractéristiques les plus importantes d'une théorie, ont soutenu qu'elle devrait être précise, cohérente, largement applicable, simple, fructueuse, avoir de la nouveauté, etc. Cependant, chacun de ces critères séparément n'a pas d'autosuffisance. De ce fait, Popper conclut que toute théorie est, en principe, falsifiable, soumise à la procédure de réfutation. Sur la base de ces arguments, Popper avance le principe de faillibilisme. Il conclut qu'il n'y a pas d'erreur uniquement dans l'affirmation que "toutes les théories sont erronées".

Il est facile de voir que le développement des concepts scientifiques est médiatisé à plusieurs reprises par des définitions conceptuelles linguistiques. Dans ses recherches sur cette question, le scientifique russe T. G. Leshkevich écrit : "Le langage ne dispose pas toujours de moyens adéquats pour reproduire une expérience alternative, certains fragments symboliques peuvent être absents du vocabulaire de base du langage. Par conséquent, pour la philosophie des sciences, il est fondamentalement important d'étudier les spécificités du langage en tant que moyen efficace de représentation, de codage des informations de base, la relation des mécanismes linguistiques et extralinguistiques pour la construction d'une théorie"[9] .

4.3. Théories classiques, non classiques, post-non classiques

Les théories classiques, non classiques et post-non classiques caractérisent les étapes et les types de philosophie. Le point de départ de cette série est le concept de « classique », car il est associé à des idées sur les modèles de philosophie, les noms, personnalités et textes qui leur correspondent, ainsi qu'aux modèles proposés par la philosophie aux gens comme lignes directrices pour leur vie. et activités. D’un point de vue historique, chaque époque présente ses propres modèles philosophiques qui conservent encore aujourd’hui leur importance culturelle. En ce sens, il faudrait parler des classiques philosophiques de l’Antiquité, du Moyen Âge, de la Renaissance, etc. Dans une vision plus étroite, les classiques philosophiques peuvent être limités aux XVIIe-XIXe siècles, et principalement à l'espace de la région européenne, puisque c'est dans ce chronotope que l'idée de classicisme a reçu une justification et un développement détaillés. Ce rétrécissement du « champ » des classiques philosophiques rend plus claire la comparaison entre classiques, non-classiques et post-non-classiques. L'achèvement de l'étape classique est enregistré au milieu du XIXe siècle, l'étape non classique - de Marx à Husserl - se déroule jusqu'au milieu du XXe siècle, l'étape post-non classique se dessine dans la seconde moitié du XXe siècle. le XNUMXème siècle. avec la perspective de se poursuivre au siècle prochain. À ce stade, le sens « étroit » des classiques est pratiquement perdu, car l'inclusion des classiques dans de nouveaux contextes méthodologiques, culturels et pratiques s'avère significative.

Le type classique de philosopher présuppose la présence d'un système de modèles qui déterminent la commensuration et la compréhension des principaux aspects et sphères de l'être : la nature, la société, la vie des gens, leurs activités, leurs connaissances, leur pensée. Le mode de mise en œuvre correspondant des échantillons est également impliqué: leur déduction, distribution, consolidation dans des formes spécifiques d'activité spirituelle, théorique, pratique des personnes. Ainsi, par exemple, une idée généralisée d'une personne est incluse dans des descriptions spécifiques d'individus humains, des explications de leurs actions, des évaluations de leurs situations. Dans ce modèle, la forme de la description et de l'explication est prédéterminée et, lorsqu'elle entre en contact avec le "matériel humain", elle en distingue certaines qualités et les mesure. En conséquence, certaines qualités des personnes et des choses ne sont pas prises en compte par le modèle, restent dans "l'ombre" ou sont simplement coupées par celui-ci. Cet aspect du travail d'une idée généralisée d'une personne en tant que modèle méthodologique indique sa relation avec les canons du bon sens traditionnel. Comme les idées traditionnelles sur la nature humaine, il peut être transmis comme un schéma d'expérience existant de génération en génération, se déplacer dans le temps social, maintenir sa continuité, servir de moyen de reproduction et d'organisation des liens sociaux. Mais sur un point essentiel, il diffère des schémas traditionnels : il n'est pas « attaché » à une certaine zone de l'espace social, il n'est plus associé aux particularités et aux contraintes du caractère domanial. Ici, le contexte historique de sa "perception" logique (et de son apparente universalité) est révélé. Par le processus même de l'histoire, il est coupé du sol concret ; mutations religieuses, juridiques, économiques, technologiques, scientifiques, il est abstrait des caractéristiques éthiques, sociales, culturelles des communautés humaines.

Cette caractéristique du modèle classique est renforcée par son recours (qui n'est souvent qu'une référence) à des justifications scientifiques. La philosophie classique utilise l'autorité et les arguments de la science pour donner à ses modèles une signification sociale particulière. La similitude de ces modèles avec les canons traditionnels et les normes scientifiques indique qu'ils « revendiquent » le rôle même joué par les canons traditionnels du comportement et de la pensée. Cependant, le déplacement des schèmes traditionnels et l'occupation de leur "cellule" fonctionnelle par des échantillons s'effectuent par une philosophie basée sur des normes scientifiques et en comparant des échantillons philosophiques et des normes scientifiques comme outils de l'activité humaine.

Le lien de la philosophie classique avec la science est, tout d'abord, le lien avec la logique, qui s'est d'abord développée dans le cadre de la philosophie elle-même, puis a fonctionné dans le cadre des sciences individuelles, principalement naturelles, où elle a fourni des classifications, des généralisations, des réductions, procédures de comparaison et de mesure. Quant à la généralisation elle-même, dans la philosophie classique, des concepts très sophistiqués et méthodologiquement prometteurs pour déployer des concepts généraux dans des caractéristiques spécifiques de l'être ont été développés. Il suffit de rappeler la position de Hegel sur la singularité comme véritable réalisation de l'universel, son raisonnement sur l'individualité comme centre spirituel de la vie tribale et son incarnation concrète vivante. Notons que Hegel a formulé ces propositions en « marge » de ses principaux ouvrages (en particulier, dans un ouvrage aussi clairement non méthodologique que « L'Esthétique »). Les classiques orientaux ne fournissent pas d'exemples d'une rupture aussi sévère entre la philosophie et les formes de l'expérience quotidienne (et, par conséquent, une telle influence mutuelle de la philosophie et de la science) que la philosophie européenne du XIXe siècle. Ce dernier est particulièrement important pour comprendre le sol sur lequel pousse la philosophie postclassique.

L'impact de la science sur la philosophie du XIXe siècle, sur ses modèles et ses modes d'utilisation, a été explicitement et implicitement corrigé par le développement de l'économie, de l'industrie et de la technique. Une signification sociale particulière était attachée aux schémas d'activité et de pensée qui servaient à la production en expansion, à la production de masse de choses dépourvues de caractéristiques individuelles. La stabilité de ces schémas a été donnée par l'image correspondante d'une personne, ce qui est tout à fait cohérent avec les échantillons disponibles dans les classiques philosophiques. L'abstraction du modèle a stimulé la prise en compte des sujets humains, de leurs qualités et relations à travers la sommation, le calcul et la division de leurs forces. De plus, ces forces, par essence, se sont avérées être abstraites de leurs porteurs individualisés.

Dans l'image généralisée d'une personne, non seulement les caractéristiques individuelles des personnes ont été perdues, mais également le processus réel de leur être, la dynamique de leur auto-changement, de leur auto-réalisation, de leur auto-développement. L'image généralisée d'une personne comme mesure de l'activité des personnes dans les caractéristiques des interactions humaines a révélé l'importance de la norme. C'est d'ailleurs dans cette fonction qu'il rejoint les régulateurs juridiques et moraux des rapports sociaux. Son abstraction des caractéristiques individuelles et de la vie processuelle a créé des conditions fiables pour mesurer le comportement des personnes en tant qu'individus abstraits. L'abstraction du modèle a permis de l'utiliser pour évaluer une variété de situations humaines : peu importe jusqu'où les gens vont dans leurs actions et leurs méfaits, un modèle (ensemble de modèles) existait déjà pour caractériser et évaluer leurs actions.

L'image généralisée de l'homme agissait en philosophie et au-delà en coordination explicite ou indirecte avec des images généralisées de la nature, de l'histoire, de la culture, de l'activité, de la science, du droit, de la politique, etc. Tous ces concepts (et instruments d'action) ont été formés selon le même type. Par conséquent, ils constituaient une image classique convenue et mettaient en œuvre la méthodologie qui lui correspondait, ou plutôt, ils étaient des moyens clairs et plutôt rigides de sa mise en œuvre. En ce sens, les échantillons de classification philosophique étaient en pleine conformité avec les canons de l'esthétique classique ; elles étaient assez claires, stables par rapport à l'originalité et à la dynamique individuelles des phénomènes de la vie naturelle et sociale. Leur stabilité s'apparente à la colonnade d'un temple classique, qui fixe l'ordre invariable du passage de l'espace, transformant la marche habituelle des gens en une action culturelle, rituelle ou son imitation ; le temps capricieux et affirmé a ainsi acquis une mesure canonique.

La stabilité apparemment naturelle des modèles classiques (leur totalité) est devenue l'une des conditions préalables importantes à leur effondrement, car c'est précisément l'impossibilité d'utiliser l'image classique du monde en travaillant avec des systèmes particuliers et dynamiques qui a fait douter de sa fiabilité, et puis le livrer à la critique et à la révision. Commencé dans la seconde moitié du XIXe siècle. La crise des modèles classiques a également révélé une autre caractéristique importante, jusque-là cachée : au fur et à mesure que leurs limites méthodologiques sont devenues évidentes, leur rôle dans la reproduction des formes culturelles, la transmission de l'expérience humaine à travers l'espace et le temps, a été révélé. L'effondrement des formes classiques n'était pas seulement une crise dans la connaissance de la nature et de l'homme, il menaçait l'existence de structures fondamentales pour le stockage et la transmission de l'expérience humaine. Les modèles classiques ont révélé leur importance en tant que formes de reproduction sociale et leur incapacité à continuer à remplir cette fonction. Selon un sociologue américain, journaliste, professeur aux universités Columbia et Harvard, l'un des auteurs des concepts de « désidéologisation » et de « société post-industrielle » Daniel Belle (p. 1919), "la nouvelle théorie change le système d'axiomes et établit de nouvelles connexions aux jonctions, ce qui change la topologie. Lorsque deux sciences sont combinées en une seule, le nouveau réseau est plus riche et plus clair que la simple somme des deux parties" [10] .

Philosopher non classique n'est pas une direction, mais un type de pensée et d'action associé à une réaction aux modèles classiques, à la crise des classiques et à son dépassement. C'est une réaction à la disproportion entre le sujet abstrait des classiques et les individus spécifiques, l'objet abstrait - l'évolution de la nature, sa méthodologie - la recherche de ressources d'une activité intensive dans tous les domaines de la pratique. La situation qu'on a l'habitude d'appeler « non-classique » ne se révèle pas initialement dans la philosophie. Elle se retrouve aux confins de la philosophie et de la science, lorsque les théories classiques de la connaissance se heurtent à des objets qui ne « rentrent » pas dans les formes cognitives usuelles. A la fin du XIXe siècle. ces objets sont perçus comme des exceptions aux règles, des représentants exotiques de micro- et méga-mondes. Cependant, le nombre de tels objets ne cesse d'augmenter, et il faut déjà accepter le fait que jusqu'à récemment, une "nature simple et claire" (qui devrait être "imitée") entoure une personne avec une complexité inobservable et clairement pas objets fixes. De plus, au milieu du XXe siècle. il s'avère que la société, le système de la vie des gens avec ses conditions, ses moyens, ses produits, appartient aussi au monde des objets non classiques et ne peut être réduite aux choses, aux outils, aux mécanismes, aux machines qui travaillent avec les choses. L'attitude classique envers des schémas naturels et mentaux stables et l'orientation positiviste envers la "logique des choses" qui l'a suivie à cet égard s'avèrent insoutenables.

La situation non classique s'est développée à partir de la périphérie, c'est-à-dire des frontières tracées par les problèmes de la science et de la pratique, au centre, au centre de la vision du monde et des formes méthodologiques, concentrées autour de modèles philosophiques classiques. La stabilité des modèles semblait être le dernier bastion de la culture, et donc de la science, et de la morale, et, en général, d'une socialité fonctionnant normalement. La tradition liait fermement l'existence des échantillons à leur inviolabilité et leur immuabilité, de sorte que la menace à leur état stationnaire était presque toujours perçue comme une menace à leur destruction. Mais c'est précisément le régime de l'existence stationnaire des échantillons qui a pris fin. Et il ne s'agit même pas ici qu'ils aient fait l'objet de critiques de plus en plus massives de positions et de points de vue différents, mais que la maîtrise d'une situation non classique ne devienne possible que si le mode de "travail" des échantillons changeait. Cependant, sous la pression d'une masse critique puissante, ces conditions ont été sensiblement simplifiées et interprétées en termes de rejet des échantillons comme normes méthodologiques et de vision du monde.

Les modèles classiques, ayant perdu leur position privilégiée, sont passés à la position de moyens ordinaires de l'activité humaine ; ils étaient mis à l'entière disposition de leurs sujets individuels, dont ils avaient préalablement réglé et dirigé la conduite. L'image généralisée d'une personne, placée auparavant au-dessus de l'existence concrète des personnes, est devenue l'une des formes méthodologiques pour résoudre certains problèmes particuliers de cognition et de pratique. Maintenant, des sujets séparés, déterminant indépendamment les orientations du comportement, modélisant diverses interactions, adaptant divers schémas à la mise en œuvre de leurs projets individuels. Au fur et à mesure que le champ d'action des modèles classiques se réduisait, la zone de manifestation de la subjectivité humaine s'étendait de plus en plus.

La subjectivité s'est affranchie des évaluations épistémologiques, ce qui l'a rapprochée d'un savoir déformé, et a révélé les aspects ontologiques de la vie et des actions des individus humains. Ce changement dans les manifestations de la subjectivité humaine a été initialement enregistré par la recherche psychologique. La psychologie a en fait "réhabilité" la subjectivité et en même temps elle-même a déplacé le centre d'intérêt des caractéristiques des capacités cognitives d'une personne vers l'interprétation des sphères émotionnelles-volitives et non rationnelles de son être. En termes de changement culturel et philosophique, le statut de la subjectivité a longtemps (jusqu'au milieu du XXe siècle) été évalué selon les modèles classiques, c'est-à-dire négativement, comme l'apparition du subjectivisme, de l'irrationalisme, du nihilisme. En lien avec celles-ci, l'espace de la culture semblait de plus en plus fragmenté, perdant ses dimensions et ses correspondances stables. De ce point de vue, le champ de la société était vu comme un ensemble d'interactions entre différents sujets, préservé de tout arbitraire par les seules structures rigides de la socialité. Environ à partir du deuxième quart du XXe siècle. la question de la subjectivité entre en « résonance » avec le problème de trouver les ressources humaines réelles pour le développement de la société. Le chemin étendu, en principe, s'avère être une impasse; la productivité de l'économie, les perspectives de la technologie, le renouvellement de la science et de la culture s'avèrent dépendants de l'énergie et de la qualité de l'activité des sujets individuels. Le problème de la subjectivité se transforme peu à peu en problème de la subjectivité des individus comme force et forme de développement de la socialité.

Les individus "entrent" dans la considération de ce problème d'abord en tant que porteurs d'énergie physique et nerveuse, c'est-à-dire principalement en tant qu'objets corporels naturels assimilés à d'autres ressources de la reproduction sociale. Des difficultés sont rencontrées avec la modélisation de la société. Comme l'a écrit Howard Becker, "Nous sommes tous sur la route, mais nous ne savons pas où nous allons..." Il n'y a pas de théorie convaincante sur ce que sont les forces de cohésion internes du mécanisme social. Mais ce mouvement ne promet pas de changements qualitatifs. Il est nécessaire d'inclure dans les systèmes économiques, technologiques, de gestion et les chaînes d'individus dans toute la plénitude possible de leur subjectivité sociale, c'est-à-dire avec toutes leurs possibilités de réalisation de soi et d'interaction productive. En même temps, les modèles comme mode d'organisation de l'activité sociale, la communication (modèles ontologisés) deviennent inévitablement des éléments des structures de la vie sociale elle-même.

Le champ de la socialité apparaît divisé entre une multitude de sujets, et ceux-ci ne sont plus des sujets individuels avec leur subjectivité psychologisée, mais des sujets « composites », par exemple collectifs, réalisant leurs images du monde, leurs modèles d'activité. Ce sont des sujets qui accumulent en eux l'énergie et l'organisation des communautés sociales, des branches d'activité, des disciplines cognitives, en utilisant leurs moyens et ressources, en affirmant leur subjectivité et leur égoïsme. À l'extrême, ce sont des machines sociales qui non seulement occupent des positions importantes dans la production sociale, mais reproduisent également cet espace, ontologisent leurs modèles et leurs outils, formant l'objectivité de l'existence sociale et les types de comportement des personnes elles-mêmes. Ce produit s’avère en fait être une ontologisation de modèles incarnés dans des circuits et des technologies. L’espace de la société se remplit progressivement de tels modèles ontologisés. D’un point de vue qui accepte la logique habituelle des choses, cela ne semble rien d’étrange. Cependant, le fait est qu’une telle modélisation entre en conflit avec la logique des choses, puisqu’elle remplace l’existence propre des objets naturels avec leurs rythmes et lois inhérents par des schémas unilatéraux (et leurs ontologisations). Ceci, en fait, donne naissance et rend de plus en plus menaçants le problème environnemental et un certain nombre d'autres problèmes de la société moderne liés à l'énorme inertie sociale des types d'activités extensifs. Le problème se pose non seulement de limiter ce type d'activité, mais aussi d'harmoniser les différents modèles du monde, en déterminant le mode de leur interaction, les besoins et les conditions de leur traitement.

Le thème de l'interaction de différents modèles qui façonnent les positions et les comportements des sujets sociaux découle du thème de leurs collisions. Les situations conflictuelles révèlent simplement que les sujets ont des images du monde et des modèles d'activité différents. Les formes de crise des relations entre les hommes et les systèmes naturels disent en un sens la même chose : les manières d'agir des hommes ne sont pas à la mesure des manières (qui peuvent être interprétées comme une sorte de modèle) de reproduction des composants naturels. Ainsi se révèle un ensemble de tâches méthodologiques pour détecter les modèles, leur déontologisation, leur limitation et leur traitement, et surtout la tâche de désautomatisation des modèles qui ont "renaître" dans la production à grande échelle, les structures de gestion, les formes institutionnalisées d'activité scientifique, " captant" d'immenses ressources naturelles et humaines dans l'orbite de leur fonctionnement. . La solution de ces problèmes passe par le choix d'une stratégie visant à sortir les modèles ontologisés du mode de fonctionnement automatique, à en déterminer les frontières et les capacités ; leur ajustement en fonction des résultats du contrôle des personnes. Cependant, ce type de stratégie n'est pas immédiatement formé, en fait, il n'existe pas jusqu'à présent - en tant que concept détaillé ordinaire. Il "fait allusion" à son existence encore latente en tant qu'ensemble de mouvements scientifiques et méthodologiques, philosophiques, idéologiques, sociopolitiques, manifestés dans différentes sphères de la vie publique, mais unis par le type de tâches à résoudre. Au cours de la solution, les moyens nécessaires se divisent et deviennent des fins indépendantes : un groupe de mouvements insiste sur le démantèlement des modèles automatisés jusqu'à leur élimination ; l'autre - sur la construction de nouveaux modèles d'interaction, correspondant au contexte de leur utilisation. Pour les premiers - partisans de l'anarchisme méthodologique et éthique, du déconstructivisme extrême et du postmodernisme - il s'agit de montrer la fonction régressive des modèles, des formes sociales et technologiques qu'ils masquent, de faire du processus même de leur "démontage" un moyen de libérer le l'être des personnes, des choses et des textes. Pour le second - il s'agit notamment des partisans du concept de "petite science", de la phénoménologie et de la microsociologie, de l'ethnométhodologie, de l'histoire sociale, de l'éducation et de l'éducation développementales, des tendances religieuses unificatrices (œcuméniques) - la question fondamentale est la formation et la reproduction de modèles normatifs et régulateurs par des sujets sociaux spécifiques dans certaines conditions spatiales et temporelles, sur les formes de fixation de l'organisation socio-spatiale et temporelle dans les interactions des personnes elles-mêmes.

Dans diverses variantes, la mise en œuvre de ces objectifs conduit à la formation progressive d'un principe qui caractérise ce type de tâche. On peut l'appeler "l'autre" principe. "Autre" s'avère être une désignation conventionnelle de cet objet multidimensionnel potentiel, selon les normes dont les modèles d'interaction des personnes entre elles et avec les systèmes naturels sont construits, et les mesures de l'objet ne dépendent pas du sujet, mais sur le mode d'existence de l'objet, son état, la spécificité de l'interaction. Dans la situation classique, où les privilèges de l'objectivité (et de l'objectivité), sa signification, la nécessité d'en tenir compte et de s'y conformer étaient soulignés de toutes les manières possibles, la fonction de maintien de la paix, en fait, restait entièrement entre les mains du sujet . Dans la situation postclassique, il n'y a pas, comme l'écrit D. Bell, « de théorie convaincante sur ce que sont les forces du mécanisme social interne, les possibilités de modélisation sont réduites »[11] .

Lorsque, semble-t-il, l'image d'un objet est complètement perdue, c'est le mode d'existence de l'objet (des objets) qui devient le facteur le plus important pour déterminer les modèles qui construisent l'interaction avec lui. La prise en compte de ce facteur s'avère être un moment important de la reproduction du sujet lui-même, de son auto-conservation et de sa construction. Le sujet dans cette situation ne peut être ni abstrait ni « monolithique » ; son identité se confirme par sa capacité sans cesse renouvelée à développer et à reproduire des modèles d'interaction. L'image de «l'autre» est d'abord anthropomorphique et personnalologique, par conséquent, les modèles d'interaction avec «l'autre» sont caractérisés conformément aux idées de communication interpersonnelle entre les personnes (il suffit de rappeler les premières tentatives pour justifier la méthodologie des savoirs humanitaires, "sciences de l'esprit", "procédures de compréhension", V. Dilthey) . Mais la poursuite de ces tentatives conduit peu à peu à la conviction que la sympathie personnelle, la co-compréhension, la co-action ne suffisent pas à comprendre « l'autre » : la tâche est en cela, et c'est là la difficulté, qu'il faut aller au-delà des représentations et des concepts personnels subjectifs, subjectifs existants, les transformer et les reformuler afin de déterminer un ordre productif d'interaction. Pour la philosophie (et pour la conscience quotidienne), comprendre la situation se donne avec beaucoup de difficulté, d'abord, apparemment, parce qu'il faut surmonter des difficultés non pas tant de nature logique et méthodologique, que de nature morale et psychologique. En fait, il est nécessaire de faire de la pratique d'aller au-delà des frontières des idées et des concepts ordinaires, au-delà du cadre de l'expérience personnelle, au-delà des limites de la subjectivité individuelle, la norme. Surmonter ces barrières psychologiques personnelles qui sont cachées dans le travail philosophique et méthodologique, signifie en fait le début de l'étape post-non-classique et la formation du type post-classique de philosopher. Les difficultés et les complexités de cette situation transitive s'expriment avant tout par des réactions qui fixent l'insuffisance des formes psychologiques individuelles pour le travail d'un sujet philosophant. Par conséquent, l'interprétation du dépassement de ces formes se transforme souvent en thèses sur la destruction ou l'anéantissement du sujet, sur la disparition de l'auteur, sur la déshumanisation de la philosophie, etc. De même, la multidimensionnalité de « l'autre », le caractère « non classique » des objets et les manières de les fixer font naître l'idée de la désintégration de l'objectivité et de la destruction de la réalité. Mais les réactions sont suivies d'une étape de prise de conscience des difficultés du travail méthodologique lié à la construction d'une nouvelle forme de subjectivité, à la détermination du mode de fonctionnement des schèmes d'interaction, à la technique de reconstruction des situations d'objet et des formes de leur développement. En philosophie, il existe encore de nombreux obstacles à la transition vers ce type d'activité. L'un d'eux est l'orientation de la philosophie du XXe siècle. sur la microanalyse des interactions, où les relations sujet-sujet (et les contacts avec « l'autre ») sont modélisées dans l'esprit de schémas disciplinaires-psychologiques, micro-sociologiques, linguistiques.

La logique de la transition de la philosophie vers le stade et le type de travail post-classiques est déterminée non seulement par la philosophie, mais par les « systèmes internes » de son évolution au cours du siècle et demi écoulé. Des incitations importantes sont fournies par le développement de directions scientifiques telles que l'universalisme évolutionniste, la biologie et la physiologie de l'activité, les synergies et l'approche du système-monde. En ce sens, on peut dire que D. Bell, N. M. Moiseev, L. von Bartalanffy, I. R. Prigogine, F. Braudel et quelques autres chercheurs n'ont pas moins fait pour former le style de philosophie post-non classique que les philosophes de la seconde moitié du XXe siècle Leurs efforts sont associés à un certain nombre de problèmes pratiques, écologiques, politiques, économiques, techniques et scientifiques, indiquant souvent la nécessité de former des modèles et, surtout, de créer un mode de fonctionnement des modèles qui assurent la coexistence des systèmes sociaux dans leur éventualité avec les systèmes naturels. Le problème des modèles revient à la philosophie, mais il revient comme une orientation vers une philosophie changeante elle-même, la formation de concepts philosophiques de développement et de fonctionnement des modèles, la structuration correspondante de la socialité, les sujets d'interactions et les modèles d'auto-développement de l'être humain. personnes. Une caractéristique de ce régime est la combinaison de modèles stables en tant que normes avec leurs fonctions de régulateurs, garantissant le co-changement et l’auto-changement des sujets humains. La dynamique des échantillons et leur fonctionnement stable est, en fait, la tâche dont dépendent d'autres interprétations des concepts et procédures philosophiques traditionnels, tels que sujet, objet, mesure, système de mesure, généralisation, concrétisation : toutes sont redécouvertes « de l'extérieur », « leur formation, sous l'aspect de l'interaction, en termes de co-changement de sujets sociaux.

Thème 5. Traditions scientifiques et révolutions scientifiques. types de rationalité scientifique

5.1. L'interaction des traditions et l'émergence de nouveaux savoirs

Les problèmes des traditions en tant que principal facteur constitutionnel dans le développement de la science ont été envisagés pour la première fois dans les écrits de Thomas Kuhn. Il possède l'idée que les traditions sont une condition de possibilité de développement scientifique. La tradition (du latin traditio - transmission, tradition) fait référence à des éléments du patrimoine social et culturel qui se transmettent de génération en génération et se conservent longtemps dans certaines sociétés et groupes sociaux. La tradition est l'expression de tout ce qui est antérieur et relativement stable dans la vie sociale et culturelle. Il comprend à la fois le contenu des différentes sphères de la société et le mécanisme de leur développement successif, la forme de consolidation et de préservation de l'expérience socioculturelle. Il s'agit d'un type particulier de comportement, de pensée et d'expérience, évalué positivement ou négativement, appartenant (réellement ou mythologiquement) à l'héritage culturel d'un groupe sociétal ; un type particulier de conscience historique qui transforme l'ambiguïté des faits du passé en valeurs sans ambiguïté du moderne. En même temps, tant la réduction du rôle de la tradition dans la vie publique que sa transformation en base de la société existante signifient une incapacité à comprendre correctement le problème des traditions. Une telle compréhension dépend de leur interprétation en tant que valeurs. Dans la vie de la société, les traditions peuvent jouer un rôle régulateur. Ceci est particulièrement caractéristique de la société dite traditionnelle. Les Lumières, avec leur foi fondée sur l'identification d'un commencement positif dans l'histoire (raison, civilisation, émancipation), confèrent aux traditions le statut de réel à signe négatif ; qualités de préjugés, d'illusions, de fanatisme. Le traditionalisme s'oppose au concept d'"innovation". Le traditionalisme a reçu une évaluation rationaliste pour la première fois en philosophie Hegelqui ont clairement séparé la question de la dépendance réelle du présent vis-à-vis du passé. Karl Marx (1818-1883) considéraient le phénomène du traditionalisme à partir des positions du révolutionnaire et du rationalisme. Le concept de traditionalisme a été le plus complètement décrit dans les travaux Max Weber (1864-1920), bien que l'on ait tendance à considérer son concept comme une dualité irréductible. Dans la philosophie moderne, les problèmes du traditionalisme sont envisagés du point de vue de la stabilité, de l'immuabilité et de la capacité de renouvellement des structures de la conscience publique et de la pratique sociale, ainsi que de la préservation de leurs éléments individuels dans la société moderne, dans laquelle le rôle de la conception artificielle des relations et des relations sociales domine.

Les traditions sont constamment mises à jour. Cependant, malgré leur capacité à s'adapter à l'innovation, acquérant ainsi une seconde vie, il existe une option lorsque les traditions supprimeront l'innovation, retardant le processus de développement. À cet égard, les traditions peuvent être considérées à la fois primaires et secondaires. Les traditions primaires se forment spontanément et se reproduisent sous forme de formes fixes et d'une séquence d'actions directement et pratiquement, dans l'obéissance aux prescriptions rituelles et coutumières, folkloriques et mythologiques. Les traditions secondaires sont le résultat d'un traitement réflexif-rationnel, fixé dans des textes créés par des professionnels, des normes de comportement consciemment contrôlées. Ce sont les traditions secondaires qui sont sujettes à repenser, développer, assurer la continuité sociale et culturelle.

Une tradition négative est un modèle d'un passé indésirable ou interdit, bien qu'il puisse avoir des motifs de causalité sous-jacents et des explications.

Fonctionnellement, les traditions optimisent la forme d'existence d'un groupe social dans un certain environnement naturel, ethnoculturel et socio-économique, créent les conditions d'auto-identification des individus et de la société à une structure sociale particulière, agissent comme un système de limitation des innovations, contrôler la légitimation et la positivité, procéder à la correction sociale et à la codification, "répondre à l'immunité publique".

L'émergence de nouvelles connaissances est associée à la rupture des barrières construites par le traditionalisme. L'invincibilité du nouveau est légitimée par l'incapacité de l'ancien à répondre aux besoins du développement. La science traditionnelle, comme vous le savez, travaille sous le "toit" d'un certain paradigme déjà établi. Comment le nouveau s'affirme-t-il dans ces conditions ? La réponse à cette question est contenue dans les études de T. Kuhn, K. Popper, D. Bell et d'autres, en particulier le physicien, philosophe et historien des sciences américain Thomas Kuhn note qu'en agissant selon les règles du paradigme dominant, un scientifique tombe accidentellement et accidentellement sur des faits et des phénomènes inexplicables dans le cadre de ce paradigme. Il est nécessaire de changer les règles de la recherche et de l’explication scientifiques. Par exemple, des physiciens dans une chambre à brouillard, voulant voir la trace d'un électron, ont soudainement découvert que cette trace avait la forme d'une fourchette. Cela n’a pas répondu à leurs attentes, mais ils ont expliqué ce qu’ils considéraient comme des erreurs dans l’expérience. En fait, derrière le phénomène observé se trouvait la découverte du positron. Sous la pression de faits nouveaux qui ne rentraient pas dans le cadre des anciens, un changement de paradigme s'est produit. Quelque chose de similaire s’est produit lorsque des astrophysiciens, ne connaissant rien des trous « noirs », ont tenté d’expliquer ce phénomène en termes d’ignorance. Plus tard, on a appris que les trous noirs sont des objets cosmiques dont l'existence est prédite par la théorie de la relativité générale. Ils subissent une compression gravitationnelle illimitée (effondrement gravitationnel) des corps cosmiques massifs. Le rayonnement des trous noirs est bloqué par la gravité, ils ne peuvent donc être détectés que par leur gravité ou par le rayonnement de bremsstrahlung du gaz tombant sur eux depuis l'extérieur.

Karl Popper dans le livre "Objective Knowledge" (1972) a soutenu: plus de problèmes nouveaux et inattendus surviennent dans le processus de comparaison délibérée d'hypothèses alternatives les unes avec les autres, plus la science progresse. Développant cette idée, le philosophe américain des sciences Paul Feyerabend (1924-1994) dans "Comment être un bon empiriste" écrit : "... un bon empiriste commencera par inventer des alternatives à une théorie, sans tester directement cette théorie." Il poursuit en formulant quatre conditions pour une alternative stricte :

1) l'alternative doit inclure un certain ensemble d'énoncés ;

2) cet ensemble doit être lié à la prédiction plus étroitement que par simple conjonction ;

3) au moins une preuve potentielle en faveur de l'alternative est requise ;

4) la capacité de l'alternative à expliquer les succès antérieurs de la théorie critiquée est supposée.

Feyerabend explique : "De nouveaux faits sont découverts le plus souvent à l'aide d'alternatives. S'il n'y a pas d'alternative, et que la théorie semble expliquer avec succès les faits, alors ce n'est qu'une simulation de succès, c'est-à-dire "l'élimination" des faits et des alternatives ontologiques. schémas indésirables pour sa vérification" Et plus loin : "L'invention d'alternatives est précisément le moyen auquel les scientifiques... recourent rarement"[12] Bien que, notons-le, ce n'est pas la panacée !

Lors de l'analyse des révolutions scientifiques, T. Kuhn, dans ses travaux sur la philosophie des sciences, a appliqué de manière très fructueuse le concept de paradigme, développé dans les travaux de la philosophie ancienne, puis médiévale et moderne. Il a comparé au sens figuré le sens de ce concept à « un canard qui se révèle être un lapin après la révolution ». Selon son concept, un changement de paradigmes s'accompagne d'une rupture des communications entre scientifiques adhérant à des paradigmes différents et d'un changement dans la « technique » de persuasion dans les communautés scientifiques. Chaque paradigme justifie ses propres critères (exigences, normes, etc.) pour évaluer les actions cognitives et leurs résultats. Cela conduit à un problème philosophique et sociologique important : la science est-elle une sphère autonome et intérieurement fermée, et l'activité cognitive des scientifiques est-elle un type particulier d'entrepreneuriat hautement professionnel pour la création d'informations scientifiques et le développement des besoins de la société en matière d'informations, ou est-ce que la science est un domaine d'activité particulier qui remplit dans le système de travail public une fonction sociale spécifique : fournir à la société des connaissances scientifiques, des arguments ?

Selon Kuhn, un changement de paradigme scientifique, une transition vers la phase de « rupture révolutionnaire », implique le remplacement complet ou partiel d'éléments de la matrice disciplinaire, des techniques de recherche, des méthodes et des hypothèses théoriques ; tout le stock de valeurs épistémologiques est transformé. Le schéma de développement des connaissances scientifiques proposé par Kuhn comprend les étapes suivantes : étape pré-scientifique - crise - révolution - nouvelle science normale - nouvelle crise, etc. Étudiant en détail les tournants de l'histoire des sciences, Kuhn montre que la période de développement de la science « normale » peut aussi être représentée par des concepts traditionnels, par exemple le concept de progrès, qui a dans ce cas le critère du nombre. de problèmes résolus. Pour Kuhn, la science « normale » implique d’élargir la portée du paradigme en augmentant sa précision. Le critère pour se situer dans la période de la science « normale » est la préservation des fondements conceptuels acceptés. On peut dire qu’une certaine immunité opère ici, permettant de laisser inchangé le cadre conceptuel d’un paradigme particulier. L’objectif de la « science normale », note Kuhn, n’implique en aucun cas de prédire de nouveaux types de phénomènes. L'immunité, ou l'immunité contre des facteurs externes qui ne correspondent pas aux facteurs de départ acceptés, ne peut absolument pas résister aux phénomènes et faits dits anormaux - ils sapent progressivement la stabilité du paradigme. Kuhn caractérise la science « normale » comme l’accumulation cumulative de connaissances. Les périodes révolutionnaires, ou révolutions scientifiques, conduisent à des changements dans la structure de la science, les principes de la connaissance, les catégories, les méthodes et les formes d'organisation de la science.

Quelle est la raison du changement des périodes de développement calme de la science et des périodes de son développement révolutionnaire ? L'histoire du développement de la science nous permet d'affirmer que les périodes de développement calme et normal de la science reflètent la situation de continuité des traditions, lorsque toutes les disciplines scientifiques se développent conformément aux modèles établis et au système de prescriptions accepté. La science « normale » désigne la recherche qui est fermement basée sur les réalisations scientifiques passées ou existantes et qui les reconnaît comme le fondement du développement futur. Pendant les périodes de développement normal de la science, les activités des scientifiques sont basées sur les mêmes paradigmes, les mêmes règles et normes de pratique scientifique. Il y a une communauté d'attitudes et une coordination visible des actions, qui assure la continuité des traditions d'une direction ou d'une autre. Les scientifiques ne se donnent pas pour tâche de créer des théories fondamentalement nouvelles ; de plus, ils sont même intolérants à la création de telles théories "folles" par d'autres. Dans l'expression figurative de Kuhn, les scientifiques sont occupés à "mettre les choses en ordre" dans leurs champs disciplinaires. La science "normale" se développe en accumulant des informations, en clarifiant des faits connus. En même temps, cette période est caractérisée par « l'idéologie du traditionalisme, de l'autoritarisme, du bon sens positif et du scientisme ».

Chaque révolution scientifique révèle de nouveaux modèles qui ne peuvent être compris dans le cadre des idées précédentes. Le monde des micro-organismes et des virus, le monde des atomes et des molécules, le monde des phénomènes électromagnétiques et des particules élémentaires, le monde des cristaux et la découverte d'autres galaxies sont des élargissements fondamentaux des frontières de la connaissance humaine et des idées sur l'univers. Les « symptômes » de la révolution scientifique, outre les anomalies évidentes, sont des situations de crise dans l'explication et la justification de nouveaux faits, la lutte entre l'ancienne conscience et la nouvelle hypothèse et des discussions animées. Les communautés scientifiques, ainsi que les barrières disciplinaires et hiérarchiques, s'ouvrent. Par exemple, l’avènement du microscope en biologie, puis du télescope et du radiotélescope en astronomie, ont permis de faire de grandes découvertes. Tout le XVIIe siècle. a été appelée l’ère de la « conquête du microscope ». Les découvertes du cristal, des virus et des micro-organismes, des phénomènes électromagnétiques et du monde des microparticules offrent la possibilité d'une mesure approfondie de la réalité. La révolution scientifique apparaît comme une sorte de discontinuité dans le sens où elle marque non seulement la frontière du passage de l’ancien au nouveau, mais aussi un changement de direction elle-même. Les découvertes faites par les scientifiques déterminent des changements fondamentaux dans l'histoire du développement de la science, marquant le rejet de la théorie acceptée et dominante en faveur d'une nouvelle, incompatible avec la précédente. Et si le travail d'un scientifique pendant la période de la science « normale » est qualifié d'ordinaire, alors pendant la période de la révolution scientifique, il est de nature extraordinaire.

Les mécanismes inter- et intradisciplinaires des révolutions scientifiques sont d'une grande actualité. Les interactions interdisciplinaires de nombreuses sciences impliquent l'analyse d'objets systémiques complexes, révélant de tels effets systémiques qui ne peuvent être détectés dans le cadre d'une discipline. Dans le cas de transformations interdisciplinaires, l'image du monde développée dans la science de pointe est transformée dans toutes les autres disciplines scientifiques adoptées dans la science de pointe, les idéaux et les normes de la recherche scientifique acquièrent un statut scientifique général.

5.2. Les révolutions scientifiques comme points de bifurcation et le problème du choix d'une stratégie de développement scientifique

La révolution est le moment clé le plus notable du processus de développement, qui, à son tour, caractérise les changements qualitatifs des objets, l'émergence de nouvelles formes d'être, la transformation de leurs relations internes et externes. Le développement est étroitement lié au concept de progrès, qui a commencé à acquérir une signification catégorique et idéologique lors de la transition historique de l'Antiquité au Moyen Âge. Au tournant des XVIII - XIX siècles. le développement acquiert le critère de la nouveauté. Dans la seconde moitié du XIXe siècle. dans le contexte des progrès de la biologie, de la théorie économique, des connaissances socio-historiques, avec l'avènement de schémas sur l'incohérence du développement, l'auto-développement (couvrant les domaines de la nature animée et inanimée), ainsi que la pensée développée dans la philosophie classique allemande , il est devenu possible d'expliquer scientifiquement des changements importants et à grande échelle qui se produisent périodiquement, appelés "révolution".

Des révolutions se sont produites plus d’une fois dans la vie de l’humanité. Vous vous souvenez des révolutions dans la science, dans l’industrie, dans l’information, il y a même eu une révolution « verte », et elles ont toutes entraîné des changements qualitatifs radicaux. Cependant, malgré toutes les similitudes entre les révolutions, il existe également des différences notables, notamment dans leur dynamique. Dans un cas, la transformation de la vision du monde s’est produite sans modifier les idéaux et les normes de la recherche. En ce sens, la révolution médicale associée à la découverte de la circulation systémique et pulmonaire par William Harvey (1628) est révélatrice ; révolution en mathématiques en lien avec la découverte du calcul différentiel (I. Newton et G. W. Leibniz) ; découverte de la théorie de l'oxygène de Lavoisier ; passage d'une image mécanique du monde à une image électromécanique en lien avec la découverte de la théorie du champ électromagnétique, etc. Toutes ces révolutions n’ont pas conduit à un changement dans les attitudes cognitives de la physique classique, ni dans les idéaux et les normes de la recherche. Dans le même temps, dans d'autres cas, des changements radicaux ont eu lieu dans l'image même du monde, dans le système des idéaux et des normes de la science. Ainsi, la découverte de la thermodynamique et les suivantes au milieu du XXe siècle. La révolution de la mécanique quantique a conduit non seulement à repenser l’image scientifique du monde, mais également à un changement complet de paradigme, modifiant les standards, les idéaux et les normes de la recherche. L'opposition subjective-objective a été rejetée, les méthodes de description et de justification des connaissances ont été modifiées, le caractère probabiliste des systèmes étudiés, la non-linéarité et la bifurcation du développement ont été reconnus. L’introduction massive des ordinateurs dans le domaine de la production matérielle est devenue un symbole de progrès scientifique et technologique. La science est devenue une force productive directe de la société. Des changements se sont également produits dans la division sociale du travail. En particulier, le rapport des éléments des forces productives a changé : le sujet du travail, les outils et l'ouvrier lui-même ; la production à partir d'un simple processus de travail s'est transformée en un processus scientifique et technique. Des progrès ont été réalisés pour surmonter les contradictions entre le travail physique et mental ; une tendance spéculative à sous-estimer le travail mental dans le système de sa rémunération est apparue. Ainsi, les conditions préalables à une révolution scientifique peuvent être considérées, premièrement, la présence d'une anomalie scientifique fondamentale qui ne peut être expliquée par les moyens scientifiques existants ; deuxièmement, l’accumulation de ces anomalies, la recherche évidente de solutions alternatives ; troisièmement, l'évolution d'une situation de crise ; quatrièmement, la présence d'un concept alternatif qui unit les théories (dans la terminologie de Kuhn - les paradigmes). Les révolutions associées à un changement de paradigme sont un phénomène rare, car trop grandioses, complexes et déterminées par de nombreuses circonstances, notamment psychologiques.

Les périodes révolutionnaires dans le développement de la science sont perçues comme particulièrement significatives. Leur fonction "destructrice" s'est finalement transformée en une fonction constructive, créative et innovante. La révolution scientifique est devenue l'expression la plus évidente de la base de la force motrice du progrès scientifique. Cependant, le problème du choix d'une stratégie de développement scientifique n'est pas aussi simple qu'il y paraît. Le nombre d'axiomes dans ce plan varie considérablement. Philosophe, logicien, mathématicien et naturaliste américain Charles Piercé (1839-1914) croyait que la connaissance ne commence pas nécessairement par des vérités évidentes, elle peut commencer par n'importe quelles dispositions, y compris celles clairement erronées. La recherche scientifique est un processus vital de conjectures, de tests et de débats critiques. La connaissance est toujours hypothétique, probabiliste. À mesure que la recherche progresse, les hypothèses sont ajustées et la probabilité de connaissance augmente. Cependant, il diminue à nouveau lorsque de nouvelles hypothèses sont formulées.

K. Popper a soutenu que la science progresse d'un problème à un autre, d'un problème moins profond à un problème plus profond. Le modèle de croissance des connaissances scientifiques, selon Popper, est le suivant[13] .

1. La science commence par des problèmes.

2. Les explications scientifiques du problème sont des hypothèses.

3. Une hypothèse est scientifique si elle est falsifiable en principe.

4. La falsification des hypothèses assure l'élimination des erreurs scientifiques identifiées.

5. Des problèmes nouveaux et plus approfondis et des hypothèses sont obtenus à la suite d'une discussion critique.

6. L'approfondissement des problèmes et des hypothèses (théories) assure le progrès de la science, plus précisément, la croissance des connaissances scientifiques.

Selon Popper, il est impossible de comprendre la science si l’on part du rapport du second monde au premier, c’est-à-dire le monde systémique (artificiel) et le monde social (naturel). Pas une seule composante de la science (problèmes scientifiques, situations problématiques, théories, hypothèses, schémas rationnels, critères, méthodes de réfutation de la critique) ne peut être dérivée de cette relation. Le concept épistémologique traditionnel développé par Descartes, Berkeley, Hume, Kant, Russell, selon lui, a été vaincu parce qu'il prenait cette attitude comme base de la compréhension philosophique de la science. Ils n'ont pas compris le rôle important de la « recherche théorique » et de la « science théorique » ; n'a pas réussi à comprendre la nature intersubjective de la connaissance scientifique, c'est-à-dire libérez-les de toutes sortes d’ajouts subjectifs. Popper développe une nouvelle épistémologie – une épistémologie sans sujet connaisseur. Le philosophe y rattache la justification de l’autonomie de la science. Tous ses éléments les plus importants, affirme-t-il, peuvent être expliqués sans référence ni aux véritables sujets scientifiques ni à leur fonction sociale. La science est un « tiers-monde » intérieurement fermé, auto-reproducteur et auto-contrôlé, dans lequel surgissent des possibilités illimitées pour l'émergence de nouveaux « objets concevables » et de nouveaux problèmes et situations problématiques qui y sont associés. Popper écrit que le « tiers monde » est la principale sphère de l'activité humaine. Les groupes de personnes qui développent ce monde doivent occuper des positions importantes dans la société et rester des groupes actifs. Mais pour décrire leurs activités, il n’est pas nécessaire de se référer à la notion traditionnelle de « sujet de connaissance scientifique ». Popper, dans son concept philosophique, propose de déplacer l'attention de l'étude de l'homme en tant que sujet de connaissance vers l'étude des éléments initiaux du « tiers-monde » lui-même en tant que monde autonome. Dans ce monde, l’acceptation des résultats comme scientifiques ne repose pas sur la clarification de leur relation avec les objets réels étudiés, mais sur la possibilité d’appliquer à ces résultats les critères, les normes et les principes qui forment sa structure rationnelle initiale.

Selon Popper, les chercheurs scientifiques étudient non pas les objets, mais les problèmes scientifiques. Ils opèrent non pas sur les frontières « objet-sujet », mais dans le cadre des fondements rationnels de la science. Le philosophe propose de développer une structure de recherche scientifique à trois membres : « problème scientifique - suppositions (hypothèses) - réfutations ». En science, estime-t-il, il ne peut y avoir de fondements philosophiques et méthodologiques strictement objectifs et uniformes. Dans l’histoire des sciences, les scientifiques eux-mêmes ont une nouvelle compréhension des fondements de la science et des objectifs de la recherche scientifique. La science n’est qu’un type particulier de jeu dont les règles peuvent être formulées sans s’appuyer sur aucun paramètre indépendant des objets du premier monde.

Les idées exprimées par Karl Popper ont été particulièrement activement développées par le mathématicien, logicien et philosophe des sciences anglais. Imre Lakatos (1922-1974). Né en Hongrie, le philosophe a émigré du pays en 1956 après la répression du soulèvement de Budapest par les troupes soviétiques. Il était étudiant et en même temps critique de Popper. Lakatos s'est prononcé contre le falsificationnisme de Popper, estimant que les théories sont plus stables et qu'aucune falsification ne conduira à la "rayure" de la science testée. Pour expliquer ses idées, il introduit un certain nombre de concepts supplémentaires, tels que "noyau dur", "ceinture de protection", heuristiques positives et négatives dans le concept. En particulier, Lakatos fait référence au "noyau dur" trois lois bien connues de Newton et la loi de la gravitation, qui ont résisté à l'épreuve du temps et constituent à ce jour la base de la mécanique moderne. Lakatos pense qu'un chercheur consciencieux n'a pas besoin d'avoir peur du principe de falsification, mais doit le traiter avec respect. De plus, les erreurs sont humaines : "Errare humanum est..."

5.3. Révolutions globales et types de rationalité scientifique. Sciences classiques, non classiques et post-non classiques

Selon Kuhn, toute science passe par certaines phases (périodes) de développement dans son mouvement : pré-paradigme, paradigme et post-paradigme. Ces trois phases peuvent être représentées comme la genèse de la science, la science « normale » et la crise de la science. Le changement de paradigmes, le dépassement des états de crise agit comme une révolution scientifique, qui rend improductifs les concepts et doctrines scientifiques établis. Il existe trois types de révolutions scientifiques : les mini-révolutions, qui font référence à des blocs séparés dans le contenu d'une science particulière ; les révolutions locales couvrant une science spécifique dans son ensemble ; des révolutions scientifiques mondiales qui captent l'ensemble de la science et font émerger une nouvelle vision du monde. Il y a plusieurs révolutions mondiales dans l'histoire du développement de la science :

1) la révolution scientifique du XVIIIe siècle, qui a marqué l'émergence des sciences naturelles classiques et déterminé les fondements du développement de la science pour les deux siècles suivants. Toutes les nouvelles réalisations alignées de manière cohérente dans une image galiléenne-newtonienne commune du monde ;

2) la révolution scientifique de la fin du XNUMXe - la première moitié du XNUMXe siècle, qui a conduit à l'organisation disciplinaire de la science et à sa différenciation plus poussée;

3) la révolution scientifique de la fin du XIXe et du début du XXe siècle, qui est une « réaction en chaîne » de changements révolutionnaires dans divers domaines de la connaissance. Cette révolution scientifique fondamentale du XXe siècle, caractérisée par la découverte de la théorie de la relativité et de la mécanique quantique, a révisé les idées originales sur l'espace, le temps et le mouvement (le concept de non-stationnarité de l'Univers est apparu en cosmologie, la chimie quantique est apparue en chimie, la génétique s'est imposée en biologie, la cybernétique et la théorie des systèmes sont apparues ). Grâce à l'informatisation et à l'automatisation, à la pénétration de l'industrie, de l'ingénierie et de la technologie, la révolution scientifique fondamentale a acquis le caractère d'une révolution scientifique et technique ;

4) la révolution scientifique de la fin du XXe siècle, qui a introduit dans la vie les technologies de l'information, annonciatrices d'une nouvelle révolution scientifique mondiale. Nous vivons dans un Univers en expansion, dont l'évolution s'accompagne de puissants processus explosifs avec la libération d'une quantité colossale d'énergie, avec des changements qualitatifs de la matière à tous les niveaux. Compte tenu de l'ensemble des découvertes qui ont été faites à la fin du XXe siècle, on peut dire que nous sommes à l'aube d'une révolution scientifique mondiale qui conduira à une restructuration totale de toutes les connaissances sur l'Univers.

Les révolutions globales ne peuvent qu'influencer le changement des types de rationalité. L'idée de rationalité a été réalisée dans l'histoire de la culture humaine de diverses manières, et les idées sur la rationalité ont changé. La crise moderne de la rationalité est la crise de l'idée classique de rationalité, identifiée à la norme et à la correspondance rigoureusement non ambiguë de cause à effet. Le rationalisme classique n'a jamais trouvé d'explication adéquate à l'acte de création. Dans le processus de nouvelles découvertes, il y a moins de rationnel que d'intuitif et de non rationnel. Les couches profondes du "je" humain ne se sentent pas complètement subordonnées au mental, les désirs, les instincts, les affects se fondent dans l'élément bouillonnant de l'inconscient. Le concept classique de rationalité est étroitement lié à l'idéal d'objectivité scientifique de la connaissance. Elle proclamait la nécessité d'une procédure d'élimination visant à exclure au maximum les éléments subjectifs du processus cognitif. L'idéal classique de la raison pure ne voulait rien avoir à faire avec une personne réelle, porteuse de raison. Dans le modèle de la rationalité classique, la place d'une personne réelle, pensant, ressentant et expérimentant, était occupée par un sujet abstrait de cognition.

Si le problème du rationnel est considéré du point de vue de la rétrospective historique, alors en plus de l'ancien type de rationalité universelle-philosophique, il est nécessaire de distinguer le type religieux de rationalité qui domine l'Europe médiévale, subordonné au rationnel justification de la foi et une explication raisonnable des dogmes religieux. La culture des disputes médiévales a préparé l'appareil de preuve logique et de justification, la technique d'auto-examen de la pensée, la transition des formes non formalisées aux formes formalisées de la rationalité.

La rationalité scientifique non classique a pris forme à la suite de la découverte de la théorie de la relativité d'Einstein. Une condition importante pour parvenir à la vérité n'est pas l'exclusion de tous les obstacles qui accompagnent la recherche, mais la clarification de leur rôle et de leur influence, en tenant compte de la relation entre la nature de l'objet et les moyens et méthodes de recherche. Le type de rationalité non classique prend en compte la relation dynamique d'une personne à la réalité, dans laquelle son activité devient importante. Le sujet reste dans des situations problématiques ouvertes et est soumis au besoin d'auto-développement lorsqu'il interagit avec le monde extérieur. Ainsi, dans la rationalité classique, nous parlons de l'objectivité de l'être, dans la rationalité non classique - du processus de devenir.

La rationalité post-non classique montre que le concept de rationalité comprend non seulement des normes logiques et méthodologiques, mais aussi une analyse des actions humaines opportunes. L'idée de pluralisme de la rationalité se pose. Selon les mots de P. P. Gaidenko, de nombreux types de rationalité sont apparus à la place d'un seul esprit. Le rationalisme post-non classique se caractérise par la corrélation de la connaissance non seulement avec l'activité du sujet et les moyens de cognition, mais aussi avec les structures de valeur-cible de l'activité. Une personne entre dans l'image du monde non seulement en tant que participant actif, mais en tant que facteur de formation du système. Dans le contexte du nouveau paradigme, le sujet est à la fois observateur et activateur. La pensée d'une personne avec ses objectifs et ses orientations de valeurs porte des caractéristiques qui se confondent avec le contenu sujet de l'objet. Dans la nouvelle rationalité, la sphère de l'objet s'élargit en incluant des systèmes tels que "l'intelligence artificielle", la "réalité virtuelle", les "cyberrelations" (c'est-à-dire les relations mises en œuvre conformément au système de valeurs intellectuelles opérant dans la réalité virtuelle - un imaginaire illusoire monde), eux-mêmes produits du progrès scientifique et technologique.

Distinguer rationalité ouverte et fermée. Ce dernier est mis en œuvre sur le mode des orientations d'objectifs donnés, mais n'est pas universel. Ce qui apparaît rationnel en termes de rationalité fermée cesse d'être rationnel en termes de rationalité ouverte. Ainsi, la solution des problèmes de production n'est pas toujours rationnelle dans le cadre des problèmes environnementaux. Une activité qui n'est pas rationnelle du point de vue de la science peut être tout à fait rationnelle du point de vue des relations interpersonnelles ou des considérations de carrière. La rationalité ouverte permet une analyse réflexive des pratiques cognitives alternatives, implique une attitude attentive et respectueuse des images alternatives du monde qui surgissent dans d'autres traditions culturelles et de vision du monde que la science moderne, le dialogue et l'enrichissement mutuel des diverses traditions cognitives. L'anti-dogmatisme est associé à une rationalité ouverte, mais il contient aussi le danger du relativisme, crée une situation de tension constante à la recherche d'un "sol solide", de la responsabilité du choix effectué.

La question se pose de la relation entre les différents types de rationalité. Les chercheurs ont tendance à voir l'attraction dialectique de la rationalité ouverte et fermée, de la rationalité impersonnelle de type cosmologique et de la rationalité anthropocentrique humaine. Les idéaux de la rationalité classique ne doivent pas être remplacés par la « rationalité sans rivages », qui affirme que « tout est rationnel en tout ». Selon V. S. Stepin, les trois types de rationalité scientifique (classique, non-classique et post-non-classique) interagissent et l'émergence de chaque nouveau type n'annule pas le précédent, mais le limite seulement, soulignant sa portée. A l'heure actuelle, il importe de distinguer les types de rationalité, aussi variables soient-ils, de la pseudo-rationalité.

La rationalité est associée à des programmes d'activité articulés. L'auteur du concept de connaissance personnelle, M. Polanyi, a montré que la connaissance présentée dans les textes d'articles scientifiques et de manuels n'en est qu'une partie, qui est au centre de la conscience. L'autre partie est centrée sur la moitié des connaissances dites périphériques qui accompagnent en permanence le processus de cognition. On peut dire que la rationalité fixe le principal "foyer de la conscience", sans nier l'intégrité dans laquelle notre connaissance s'exerce et que nous devons atteindre.

Il existe trois options pour la corrélation de la pensée et de la parole, qui devraient prendre en compte le type moderne de développement de la rationalité. La première option se caractérise par un domaine de connaissances implicites dont l'expression verbale n'est pas autosuffisante ou insuffisamment adéquate. C'est le domaine dans lequel la composante de connaissance implicite tacite domine à tel point que son expression articulée n'est pas possible ici, et qui peut donc être appelé le « domaine de l'inexprimable ». Il couvre les connaissances basées sur les expériences et les impressions de la vie. Ce sont des expériences profondément personnelles qui sont très difficiles à traduire et à socialiser. L'art a toujours essayé de résoudre ce problème avec ses propres moyens: l'acte de créativité et d'empathie reflétait la capacité de regarder le monde et la vie du héros d'un drame de la vie. La deuxième variante de la relation entre la pensée et la parole se caractérise par un champ de connaissances assez bien transmis par la parole. C'est un domaine où la composante de la pensée existe sous forme d'information et peut être complètement véhiculée par un discours bien compris, donc le domaine de la connaissance tacite coïncide avec le texte, dont il est porteur. La troisième option est le domaine de la "compréhension difficile": il existe une incohérence entre le contenu non verbal de la pensée et les moyens de parole, ce qui rend difficile la conceptualisation du contenu de la pensée. Il s'agit d'un domaine dans lequel les connaissances tacites et les connaissances formelles sont indépendantes l'une de l'autre. Ainsi, ces nuances, qui fixent les limites de l'articulation de la pensée, tombent également sous le coup de la rationalité de type moderne.

Les compétences et les actions instrumentales sont de nature rationnelle, mais elles sont largement individuelles. D'autre part, les règles et instructions écrites ne sont pas toujours rationnelles, car elles ne reproduisent pas tous les secrets de la maîtrise, elles ne peuvent remplacer une technologie qui reste inarticulée. En plus d'élargir le type moderne de rationalité, en tenant compte du potentiel de l'inarticulé, il existe également des possibilités d'expansion, en tenant compte du réservoir du polysémantisme. Le sens des dispositions scientifiques est pensé de manière ambiguë, mais le sens de la rationalité en tant que telle dépend du contexte implicite du savoir comme savoir-compétence, savoir-pouvoir, etc. avec articulation « dehors ». Les scientifiques modernes soutiennent que le sens est également inséparable de la certitude personnelle investie dans le jugement scientifique proclamé.

On peut conclure que pour le type de rationalité post-non-classique moderne, en plus de sa mise en œuvre dans le mode de l'espace structurel, une image holistique de cet espace est importante. La Gestalt est importante - une formation mentale nécessaire pour recréer une structure holistique unique qui unit et relie divers éléments et composants. La pénétration dans la mentalité moderne des fondements de la vision orientale du monde rend pertinent l'identification de la « rationalité cosmique ». Cela pourrait inclure les idées d'harmonie, l'intégrité de l'homme et du cosmos, les idées du droit chemin et du destin personnel.

La rationalité de type socioculturel, qui tient compte de la hiérarchie, de la subordination et d'autres normes fonctionnelles de comportement, montre à quel point les normes du monde créées par l'homme sont raisonnables. En tant que type innovant de rationalité, les scientifiques distinguent la rationalité communicative.

L'existence de « pièges à rationalité », lorsqu'une stratégie rationnelle d'action individuelle conduit à une irrationalité sociale collective, est considérée comme particulièrement pertinente pour ce stade de développement de la méthodologie. Il est montré que dans certaines circonstances une stratégie individuelle complètement rationnelle peut être destructrice et destructrice pour l'individu.

Thème 6. Développement de systèmes synergiques auto-développés et de nouvelles stratégies pour la recherche scientifique

Dans la science moderne post-non classique, tout le potentiel des sciences descriptives, des connaissances disciplinaires, de la recherche interdisciplinaire axée sur les problèmes, etc. est axé sur la recréation de l'image de la réalité objective. L'étude des systèmes synergiques auto-développés se déroule dans le cadre de recherche interdisciplinaire dans plusieurs directions : 1) le modèle proposé par le fondateur de la synergétique G. Haken ; 2) I. Modèle de Prigogine ; 3) le modèle de l'école russe dirigée par S.P. Kurdyumov et d'autres. Herman Haken (né en 1927) à la première conférence sur les problèmes de l'auto-organisation. Dans l'image post-non classique moderne du monde, l'ordre, la structure, ainsi que le chaos, la scolastique, sont reconnus comme des caractéristiques objectives et universelles de la réalité, présentes à tous les niveaux structurels de développement. Le problème de la régulation du comportement des systèmes hors équilibre est au centre de l'attention de la synergétique (du grec synergos - lit. "syn" - avec et "ergos" - action, c'est-à-dire assistance, participation) - la théorie de soi -organisation, qui s'est donné pour objet d'identifier les schémas les plus généraux de genèse de structure spontanée.

Un indicateur de progrès en tant qu'état tendant à accroître la complexité du système est la présence en lui d'un potentiel interne d'auto-organisation. Cette dernière est conçue comme un processus évolutif global, c'est pourquoi le concept de "synergétique" s'est répandu dans la philosophie moderne des sciences et est le plus souvent utilisé dans le sens d'"action concertée", "coopération continue", "partage". Haken, dans son ouvrage classique Synergetics, a noté que dans de nombreuses disciplines, de l'astrophysique à la sociologie, des phénomènes d'entreprise sont observés, qui conduisent souvent à l'émergence de structures ou de fonctions microscopiques. La synergétique dans son état actuel se concentre sur les situations dans lesquelles les structures ou les fonctions des systèmes subissent des changements spectaculaires au niveau macro. Elle s'intéresse particulièrement à la question de savoir comment exactement les sous-systèmes ou les parties produisent des changements qui sont entièrement dus aux processus d'auto-organisation. Paradoxalement, lors du passage d'un état désordonné à un état d'ordre, tous ces systèmes se comportent de manière similaire.

En 1982, lors d'une conférence sur la synergie tenue en URSS, des priorités spécifiques pour la nouvelle science ont été identifiées. G. Haken, en particulier, a souligné qu'en relation avec la crise des domaines hautement spécialisés de la connaissance, l'information doit être réduite à un petit nombre de lois, de concepts ou d'idées, et la synergie peut être considérée comme l'une de ces tentatives. À son avis, les principes d'auto-organisation de systèmes de nature différente (des électrons aux personnes) sont les mêmes, par conséquent, nous devrions parler des déterminants généraux des processus naturels et sociaux, que la synergie vise à trouver.

Ainsi, la synergétique s'est avérée être un concept scientifique très productif, dont le sujet était les processus d'auto-organisation - la genèse spontanée des structures. Dans le modèle domestique de la synergétique et son interprétation par les scientifiques russes de l'école de S. P. Kurdyumov, l'attention se concentre sur les processus se produisant dans le mode "avec aggravation". La synergie comprenait de nouvelles priorités de l'image moderne du monde - le concept d'un monde instable hors équilibre, le phénomène d'incertitude et de développement multi-alternatif, l'idée de l'émergence de l'ordre à partir du chaos.

L'idée fondamentale de la synergétique est que le déséquilibre est conçu en fonction des sources de l'émergence d'une nouvelle organisation, c'est-à-dire ordre (c'est pourquoi l'ouvrage principal de I. Prigogine et I. Stengers s'appelle "Order out of chaos"). L'origine de l'ordre est assimilée à la matière spontanée. Le système est toujours ouvert et échange de l'énergie avec le milieu extérieur, dépend des caractéristiques de ses paramètres. Les états de non-équilibre sont causés par les flux d'énergie entre le système et l'environnement. Les processus de commande locale sont effectués en raison de l'afflux d'énergie de l'extérieur. Selon G. Haken, le traitement de l'énergie fournie au système passe par de nombreuses étapes, ce qui conduit finalement à un ordre au niveau microscopique : formation de structures microscopiques (morphogenèse), mouvement avec un petit nombre de degrés de liberté, etc. Avec des paramètres changeants, le même système peut démontrer différentes libertés d'auto-organisation. Dans des conditions hautement non équilibrées, les systèmes commencent à percevoir les facteurs auxquels ils étaient indifférents, étant dans un état plus équilibré. Par conséquent, l'intensité et le degré de leur non-équilibre sont importants pour le comportement des systèmes auto-organisés.

Les systèmes auto-organisés trouvent des formes internes (immanentes) d'adaptation à l'environnement. Les conditions de non-équilibre provoquent l'effet du comportement corporatif d'éléments qui, dans des conditions d'équilibre, se sont comportés de manière indépendante et autonome. Dans les situations de manque d'équilibre, de cohérence, c'est-à-dire la cohérence des éléments du système augmente considérablement. Un certain nombre ou ensemble de molécules présente un comportement cohérent, qualifié de complexe. Dans The Philosophy of Instability, I. Prigogine souligne : "Il semble que des molécules situées dans différentes régions de la solution puissent en quelque sorte communiquer entre elles. En tout cas, il est évident que loin de l'équilibre, la cohérence du comportement des molécules augmente". A l'équilibre, la molécule ne voit que ses voisines et ne « communique » qu'avec elles. Loin de l'équilibre, chaque partie du système voit le système entier comme un tout. On peut dire qu'à l'équilibre la matière est aveugle, mais hors d'équilibre elle voit. "G. Haken appelle ces modes de mouvements "collectifs". conduit à une diminution colossale du nombre de degrés de liberté, c'est-à-dire à l'ordre.

Les systèmes synergiques au niveau de l'existence abiotique (matière inorganique, rouge) forment des structures spatiales ordonnées ; au niveau des organismes unicellulaires, ils interagissent par des signaux ; au niveau des organismes multicellulaires, diverses coopérations s'effectuent au cours de leur fonctionnement. L'identification d'un système biologique est basée sur la présence de dépendances coopérantes. Le travail du cerveau est évalué par la synergétique comme un « chef-d'œuvre de la coopération cellulaire ».

Les nouvelles stratégies de recherche scientifique liées à la nécessité de maîtriser les systèmes synergiques auto-organisateurs reposent sur une augmentation constructive des connaissances dans la théorie dite du désordre dirigé, qui est associée à l'étude des spécificités et des types d'interrelations entre les processus de structuration et de chaos. Les tentatives de comprendre les concepts d'"ordre" et "chaos" sont basés sur la classification du chaos, qui peut être simple, complexe, déterministe, intermittent, à bande étroite, à grande échelle, dynamique, etc. Le type de chaos le plus simple - à basse dimension - se trouve dans la science et la technologie et peut être décrit à l'aide de systèmes déterministes ; il diffère d'un comportement temporel complexe, mais spatial très simple Le chaos de faible dimension accompagne le comportement irrégulier des milieux non linéaires Dans un régime turbulent, les paramètres temporels et spatiaux seront complexes, non coordonnés Le chaos déterministe implique le comportement de milieux non linéaires système, qui est décrit par des équations sans sources scolaires, avec des conditions initiales et aux limites régulières. Les raisons de la perte de stabilité et du passage au chaos sont le bruit, les interférences extérieures, les facteurs perturbateurs. La source du chaos est parfois considérée comme la présence de diverses séquences absolument aléatoires. Les circonstances causant le chaos comprennent l'instabilité fondamentale du mouvement, lorsque deux états proches peuvent générer des trajectoires de développement différentes, réagissant avec sensibilité à la scolastique des actions extérieures.

La recherche moderne complète de manière significative les vues traditionnelles sur les processus de chaotisation. Le chaos est entré dans l'image postclassique du monde non pas comme une source de destruction, mais comme un état dérivé de l'instabilité primaire des interactions matérielles, qui peut être la cause de la genèse spontanée des structures. Dans les derniers développements théoriques, le chaos apparaît non seulement comme une masse informe, mais comme une séquence organisée extrêmement complexe, dont la logique présente un intérêt considérable. Les scientifiques définissent le chaos comme un mouvement irrégulier avec des trajectoires instables se répétant périodiquement, où la corrélation des paramètres spatiaux et temporels est caractérisée par une distribution aléatoire.

Dans le monde des relations humaines, il y a toujours eu une attitude négative envers les structures chaotiques et une acceptation complète des structures ordonnées. La pratique sociale se développe contre le chaos, l'incertitude, les accompagnant de formules évaluatives négatives, essayant de les pousser au-delà des limites de l'analyse méthodologique. Celle-ci s'exprime dans le triomphe des utopies rationalistes des régimes totalitaires qui veulent instaurer « l'ordre complet » et le maintenir avec une « nécessité de fer ». La science moderne surmonte cette attitude en offrant une compréhension différente et constructive du rôle et de la signification des processus du chaos dans le paradigme synergique actuel.

L'interprétation de la spontanéité du développement comme une caractéristique négative en termes destructeurs d'"arbitraire" et de "chaos" entre en conflit non seulement avec les calculs de l'analyse scientifique naturelle et philosophique-méthodologique moderne, qui reconnaît le chaos ainsi que l'ordre comme des caractéristiques universelles de le développement de l'univers, mais aussi avec l'ancienne tradition historique et philosophique dans laquelle le chaos est conçu comme un principe englobant et générateur. Dans l'ancienne vision du monde, le chaos incompréhensible est doté d'un pouvoir de formation de forme et signifie "bâillement", "bâillement", l'état primaire sans forme de la matière et la potentialité primaire du monde, qui, en s'ouvrant, crache des rangées de sources de vie entités constituées. Plus de 20 siècles plus tard, une vision du monde aussi ancienne s'est reflétée dans les conclusions des scientifiques qui soutiennent que la découverte du chaos dynamique est, en fait, la découverte de nouveaux types de mouvement, tout aussi fondamentaux dans la nature que la découverte de la physique des particules élémentaires. , quarks et gluns en tant que nouveaux éléments de la matière. La science du chaos est la science des processus, et non des états, du devenir, et non de l'être.

De nouvelles stratégies de recherche scientifique en lien avec la nécessité de maîtriser les systèmes synergiques auto-organisateurs repensent les types d'interconnexion entre structuration et chaotisation, représentés par le schéma de cyclicité, les relations binaires et complémentaires. La structure binaire de l'interaction de l'ordre et du chaos se manifeste dans la coexistence et la confrontation de ces deux éléments. Contrairement à la cyclicité, qui implique un changement d'états, l'opposition binaire de l'ordre et du chaos est associée à une pluralité d'effets effectifs : elle est à la fois négation et transformation tout en maintenant la base originelle (disons, plus d'ordre et plus de chaos), et en déployant le même confrontation sur une nouvelle base (par exemple, les temps sont différents, mais les ordres ou les vices sont les mêmes). La relation de complémentarité suppose l'intrusion de forces non structurées et de formations fragmentées dans un tout organisé. Ici, on peut observer l'implication dans l'intégrité d'éléments étrangers inhabituels pour elle, des inclusions dans le système établi de composants de structures secondaires, souvent sans transformations innovantes et changements dans le système de complexité.

Pour le développement de systèmes synergiques auto-organisés, une nouvelle stratégie de recherche scientifique est indiquée, basée sur un principe arborescent (schéma structurel-logique, graphe), qui recrée le développement alternatif. Le choix de la trajectoire de développement phare dépend des conditions initiales, des éléments qu'elles contiennent, des changements locaux, des aléas et des impacts énergétiques. Lors du 1995e Congrès international de logique, méthodologie et philosophie des sciences, tenu en août XNUMX à Florence, I. Prigogine a proposé de considérer l'idée de mesure quantique appliquée à l'univers en tant que tel comme base. La nouvelle stratégie de la recherche scientifique consiste à prendre en compte l'ambiguïté fondamentale du comportement des systèmes et de leurs éléments constitutifs, la possibilité de sauter d'une trajectoire à une autre et la perte de mémoire lorsque le système, ayant oublié ses états passés, agit spontanément et de façon imprévisible. . Aux points critiques des changements dirigés, l'effet de branches est possible, ce qui permet de nombreuses combinaisons de leur évolution dans la perspective du fonctionnement de tels systèmes.

Il est à noter qu'une approche méthodologique similaire utilisant des graphiques d'analyse de branchement a été appliquée AJ Toynbee (1889-1975) en relation avec le processus général de développement civilisationnel. Elle n'ignore pas le droit à l'existence de différents types de civilisations, qui, selon l'historien, sont au nombre d'environ 21. La croissance civilisationnelle n'obéit pas à un modèle unique, elle suppose un développement civilisationnel multivarié, dans lequel des représentants du même type de la société réagit différemment aux soi-disant histoires de défi : certains meurent immédiatement ; d’autres survivent, mais à un tel prix qu’ils ne sont plus capables de rien ; d'autres encore résistent si bien au défi qu'ils en ressortent non seulement non affaiblis, mais ayant même créé les conditions les plus favorables pour surmonter les épreuves futures ; Il y a ceux qui suivent les pionniers, comme les moutons suivent leur chef. La genèse des civilisations indépendantes n’est pas associée à une séparation avec des formations sociales antérieures de la même espèce, mais plutôt à des mutations de sociétés sœurs ou de sociétés primitives. La désintégration des sociétés se produit également de différentes manières et à des vitesses différentes : certaines se décomposent comme un corps, d’autres comme un tronc d’arbre, d’autres encore comme une pierre emportée par le vent. La société, selon Toynbee, est l'intersection des domaines d'activité des individus, dont l'énergie est la force vitale qui crée l'histoire. Cette conclusion de l'historien est largement cohérente avec l'une des dispositions phares de la méthodologie post-non classique, qui repense le rôle et l'importance de l'individu en tant qu'initiateur d'un « saut créatif », impose une nouvelle perception du passé, le dont les événements se sont déroulés sous l’influence d’une minorité, de grands personnages et de prophètes.

L'ouverture organisationnelle particulière du monde implique une variété de façons de quantifier la réalité, divers liens scénaristiques-structurels de la matière. La stratégie de maîtrise des systèmes synergiques auto-organisateurs est associée à des concepts tels que "bifurcation", "fluctuation", "chaosom", "dissipation", "attracteurs", "non linéarité", "incertitude", qui sont dotés d'un statut catégorique et sont utilisés pour expliquer le comportement de tous les types de systèmes - déorganiques, organismes, sociaux, d'activité, ethniques, spirituels, etc.

Dans des conditions éloignées de l'équilibre, des mécanismes de bifurcation opèrent, suggérant la présence de points de bifurcation et une poursuite non unique du développement. Les résultats de leur action sont difficiles à prévoir. Selon I. Prigozhin, les processus de bifurcation indiquent la complication du système. N. Moiseev soutient qu'en principe, tout état d'un système social est bifurcationnel et que, dans les dimensions globales de l'anthropogenèse, le développement de l'humanité a connu au moins deux bifurcations : la première s'est produite à l'ère paléolithique et a conduit à l'établissement de un système de tabous limitant l'action des lois biosociales (tu ne tueras pas !), le second - à l'époque néolithique et est associé à l'expansion de la niche géologique (développement de l'agriculture et de l'élevage).

Fluctuations, c'est-à-dire les perturbations sont divisées en deux classes : celles créées par l'environnement extérieur et celles reproduites par le système lui-même. Les fluctuations peuvent être si fortes qu'elles ont une densité systémique, lui donnant ses propres fluctuations et, de fait, changeant son mode d'existence. Ils font sortir le système de son type d’ordre inhérent, mais la question de savoir si cela conduit nécessairement au chaos ou à un ordre à un niveau différent est une autre question.

Un système par lequel les perturbations sont dissipées est dit dissipatif. Il s'agit essentiellement d'une caractéristique du comportement du système lors de fluctuations qui l'ont complètement englouti. La propriété principale d'un système dissipatif est son extraordinaire sensibilité à toutes sortes d'influences et, en relation avec cela, un déséquilibre extrême.

Les attracteurs sont appelés ensembles attractifs qui forment une sorte de centres vers lesquels gravitent les éléments. Par exemple, lorsqu'une grande foule de personnes s'accumule, une personne ne peut pas passer indifféremment à côté sans montrer de curiosité. Dans la théorie de l'auto-organisation, un tel processus est appelé glissement jusqu'au point d'accumulation. Les attracteurs concentrent les éléments scolaires autour d'eux, structurant ainsi l'environnement et participant à la création de l'ordre.

L'orientation prioritaire du nouveau paradigme - l'analyse des systèmes instables et hors équilibre - se heurte à la nécessité d'étudier le phénomène d'incertitude ontologique, qui capte l'absence d'un véritable référent du futur. Au milieu du XXe siècle. l'incertitude a suscité l'intérêt d'un certain nombre de scientifiques occidentaux dans le cadre des problèmes de cybernétique et de communications informatiques. Dans les travaux de N. Wiener, K. Shannon, W. Ashby, H. Hartley, l'information était dépendante de l'incertitude et mesurée par sa mesure. Il était généralement admis que l’incertitude (ou la surprise) était inversement proportionnelle à la probabilité : plus un événement était probable, moins il était incertain ou inattendu. Une analyse plus approfondie a montré que cette relation, à bien des égards, semble simple : l’incertitude est un type d’interaction pour lequel il manque une forme finale stable. Cela peut découler de la nature hétéronome d'un objet-événement, lorsqu'il se produit, comme on dit, sous nos yeux, avant toutes sortes de prévisions, de calculs et d'attentes. Nous identifions le phénomène d'incertitude avec la complétude potentielle de tous les changements possibles dans les limites des constantes physiques fondamentales existantes. La probabilité suppose une distribution stable des caractéristiques d'une population et vise à calculer un continuum de changements possibles.

Pour la nouvelle stratégie de la recherche scientifique, la catégorie de l'aléatoire est pertinente, qui apparaît comme une caractéristique du comportement de tout type de système, non seulement complexe, mais aussi simple. De plus, leur étude ultérieure, aussi minutieuse soit-elle, ne conduit en aucun cas à se libérer du hasard. Ce dernier signifie que les propriétés et les qualités des phénomènes individuels changent leurs valeurs indépendamment et ne sont pas déterminées par la liste des caractéristiques d'autres phénomènes. Dans l'une des dernières interprétations, un tel hasard était appelé chaos dynamique. Généré par l'action de causes secondaires, irrégulières, petites ou l'interaction de causes complexes, l'aléatoire est une manifestation concrète et particulière de l'incertitude.

La catégorie de capacité reflète l'état futur de l'objet. L'opportunité vise à corréler les conditions préalables et les tendances d'un phénomène en évolution et suggère des options pour les étapes ultérieures de développement et de changement. Un ensemble de possibles constitue un champ existentiel d'incertitude. La situation actuelle est souvent jugée incertaine en raison de la présence de nombreuses opportunités concurrentes. L'incertitude accompagne la procédure de sélection et qualifie l'état de « présélection » du système. De plus, le choix est compris non seulement comme une action consciente et intentionnelle, mais aussi comme une actualisation de la causalité scolastique d'un processus naturel ou naturalo-historique. L'incertitude contient potentiellement autant d'options aussi possibles que "tout est possible" (bien sûr, dans les limites des constantes physiques fondamentales). Ensuite, il est organisé en situation et, dans sa forme achevée, est l'opposé de lui-même, c'est-à-dire certitude.

Les régularités statistiques nécessaires à la nouvelle stratégie d'étude des systèmes auto-organisateurs sont formées dans le langage des distributions de probabilités et se manifestent comme des lois de phénomènes de masse basées sur de grands nombres. On pense que leur action se trouve là où, pour une variété de causes aléatoires, il existe des liens nécessaires profonds. Ils ne donnent pas une répétabilité absolue, cependant, dans le cas général, leur évaluation en tant que régularités de causes permanentes est justifiée. La synergétique moderne se caractérise par la distinction entre deux branches évolutives du développement : l'organisme et l'inorganique. Le monde vivant confirme la capacité unique de produire des formes ordonnées, comme s'il suivait le principe de "l'ordre de l'ordre". L'aspiration de la matière inerte est l'approche du chaos, l'augmentation de l'entropie avec la genèse subséquente de la structure. La base des lois physiques subtiles est le désordre atomique. La principale caractéristique évolutive des êtres vivants est l'augmentation minimale de l'entropie. De la thèse sur la production minimale d'entropie, il s'ensuit que les conditions empêchent le système d'entrer dans un état d'équilibre, il entre dans un état d'entropie, qui est aussi proche de l'équilibre que les circonstances le permettent.

Le postulat des sciences naturelles modernes - "ça suffit ce qui est extrêmement probable" - n'exclut pas l'analyse "pièce par pièce" des événements inattendus, improbables, mais à cause de cela, les événements les plus vastes, qui sont facilités par des moyens aussi innovants de la stratégie de recherche scientifique comme détermination situationnelle (études de cas), abduction, cumatoïde.

L'analyse par type de "case stadies" (études de cas) implique l'étude de situations particulières, individuelles, qui ne rentrent pas dans les canons explicatifs établis. On pense que l'idée d'une approche situationnelle remonte à la méthode idéographique (descriptive) de l'école de Baden. Il existe deux types d'études de cas : textuelles et de terrain. L'avantage des études de cas est que le contenu du système de connaissances est révélé dans le contexte d'un certain ensemble de conditions, de formes spécifiques et spéciales de situations de vie, ouvrant ainsi le voile sur les secrets du processus cognitif réel.

La phase de "conclusion à la meilleure explication des faits" s'appelle l'abduction. De telles conclusions sont utilisées dans la vie quotidienne et dans la pratique. Par exemple, un médecin recherche la cause de la maladie par les symptômes d'une maladie, un détective recherche un criminel par les traces laissées sur les lieux du crime. De même, un scientifique, essayant de trouver l'explication la plus réussie de ce qui se passe, utilise la méthode de l'abduction: l'importance de la procédure qu'il reflète et la construction d'une stratégie méthodologique nouvelle et efficace sont très importantes.

Une autre innovation des stratégies scientifiques et technologiques modernes est le kumatoid (du grec kuma - vague) - un certain type d'objet flottant, qui se caractérise par le fait qu'il peut apparaître, se former ou disparaître, se désintégrer. Il ne représente pas tous ses éléments en même temps, mais, pour ainsi dire, les représente d'une manière "sensuelle-supersensorielle" particulière. Par exemple, un objet systémique tel qu'un peuple ne peut pas être représenté et localisé dans une certaine zone spatio-temporelle, puisqu'il est impossible de rassembler toutes les personnes pour que l'objet soit représenté de manière holistique. Cependant, cet objet n'est pas fictif, mais réel ; Un autre exemple plus simple et facilement accessible est le groupe d'étudiants. C'est aussi une sorte de flottement (objet tantôt disparaissant, tantôt apparaissant), que l'on ne retrouve pas dans tous les systèmes d'interactions. Ainsi, après la fin des sessions de formation, le groupe en tant qu'objet intégral n'existe plus, alors que dans certaines situations programmées institutionnellement (numéro de groupe, nombre d'étudiants, caractéristiques générales), il en tant qu'objet est détecté et auto-identifié. De plus, un tel cumatoïde est également soutenu en dehors des institutions, alimenté par diverses impulsions - amitié, rivalité, solidarité, soutien, etc.

La particularité du kumatoïde est qu'il est non seulement indifférent à la localisation spatio-temporelle, mais également attaché de manière lâche au substrat lui-même - le matériau qui le compose. Ses qualités sont systémiques, et dépendent donc de la présence ou de l'absence de ses éléments constitutifs, et notamment de la trajectoire de leur développement ou de leur comportement. Un kumatoïde ne peut pas être identifié de manière unique à une qualité spécifique ou à un ensemble de qualités similaires fixées de manière matérielle. Toute la vie sociale est inondée d'objets flottants - les kumatoïdes. Une autre caractéristique de ce phénomène est une certaine prédicativité de son fonctionnement (être un peuple, être enseignant, être membre d'un certain groupe social, etc.). Une certaine reproduction des caractéristiques les plus typiques du comportement est attendue du kumatoid.

Les nouvelles stratégies de recherche scientifique soulignent la nature hypothétique fondamentale de la connaissance. En particulier, dans l'une des interprétations possibles de l'image post-non classique du monde, un tel état de l'univers est étayé lorsque, malgré l'imprévisibilité des fluctuations (perturbations aléatoires et changements des conditions initiales), l'ensemble des trajectoires (voies d'évolution du système) est défini et limité. Les fluctuations aléatoires et les points de bifurcation modifient la trajectoire du système de manière difficilement prévisible, cependant, ces trajectoires gravitent vers certains types d'attracteurs et, par conséquent, amènent le système, qui est instable vis-à-vis des plus petits changements des conditions initiales, dans un nouvel état instable.

Thème 7. La science en tant qu'institution sociale

7.1. L'institutionnalisation de la science et ses problèmes philosophiques

Au sens large, une institution sociale est interprétée comme un élément de la structure sociale, la forme historique d'organisation et de régulation de la vie sociale - un ensemble d'institutions, de normes, de valeurs, de modèles culturels, de formes de comportement durables. De nombreuses définitions de la science disponibles dans la littérature s'accordent sur une chose : elles interprètent toutes la science comme une forme particulière d'activité. Dans la définition de la science, on fait le plus souvent référence à ses liens génétiques avec la culture, qui est le fondement le plus solide de la science. En même temps, les prétentions de la science au statut d'institution sociale se justifient par deux circonstances. Premièrement, les limites de son fonctionnement sont si étendues qu'il touche certainement à la culture et entre en communication avec elle. Deuxièmement, la science elle-même est capable de devenir une base vraiment solide pour la culture, tant sur le plan de l'activité que de la technologie. Par conséquent, il est tout à fait approprié et légitime d'appeler la science un phénomène socioculturel, c'est pourquoi son rôle appliqué s'élargit considérablement. La communauté de la science et de la culture est capable de faire une civilisation.

Bien entendu, le rôle de la science ne se limite pas à ses contacts avec la culture. Les possibilités de la science sont bien plus larges. Inscrite dans le contexte social, elle peut influencer la politique de la société et satisfaire ses besoins idéologiques. Il existe différents modèles de rapport entre science et idéologie : condamnation, indifférence, apologétique, exploitation, etc. La science peut se retrouver dans une dépendance servile, remplissant un « ordre social ». Cette pratique est particulièrement typique de l’industrie militaire (de défense). Les sciences humaines sont celles qui dépendent le plus de l’idéologie, et les sciences naturelles celles qui le sont le moins. Les sciences techniques sont limitées par les objectifs appliqués, la demande de la production et le degré de mise en œuvre. Mais la science ne peut pas se libérer complètement de l'influence de la société, même si elle s'efforce d'y parvenir. Les facteurs socio-psychologiques qui déterminent la science nécessitent l'introduction dans le contexte de la science d'idées sur la conscience historique et sociale, une réflexion sur les types de comportement des scientifiques, les mécanismes cognitifs de la cognition et la motivation pour l'activité scientifique. Ils obligent la science à être soumise à la recherche sociologique, d'autant plus que, étant un phénomène socioculturel, la science a des conséquences non seulement positives, mais aussi négatives de son développement.

La science moderne dépend de nombreux facteurs qui déterminent son développement, parmi lesquels, outre les exigences de la production et de l'économie, on peut citer les priorités de l'État et leurs propres facteurs intellectuels, philosophiques, religieux et esthétiques, ainsi que les mécanismes de soutien social. pour la recherche scientifique. Ensemble, tous ces facteurs imposent des exigences éthiques au scientifique : désintéressement, objectivité, conscience scientifique, sens du devoir envers les traditions intellectuelles qui déterminent ses orientations morales.

La science, comprise comme un phénomène socioculturel, implique une corrélation avec le type de développement civilisationnel. Selon la classification de A. J. Toynbee, 21 types de civilisations sont distingués. Une approche plus générale implique une division civilisationnelle générale, prenant en compte deux variétés de civilisations : traditionnelle et technogénique. Il y a quelques différences entre eux. En particulier, la refonte des concepts conservateurs traditionnels est dictée par la nécessité d'utiliser des réserves de pensée non seulement internes, mais aussi universelles. Le développement de type technogénique implique une modification accélérée du milieu naturel en liaison avec la transformation active des liens sociaux du facteur humain. La matrice culturelle du développement technogénique passe par les étapes de développement pré-industriel, industriel et post-industriel. Le tricentenaire de la vie d'une civilisation technogénique a démontré son activité à la limite de l'agressivité, ce qui indique la présence de profondes conséquences de l'intervention humaine dans les secrets de la nature et sa responsabilité envers la société.

La personnalité d'un scientifique, son mouvement vers la vérité est un objet d'intérêt traditionnel des scientifiques eux-mêmes. Par exemple, Max Weber (1864-1920) voyait le devoir d'un scientifique dans le dépassement constant de lui-même, l'inertie de sa propre pensée. Et ceux qui n'en sont pas capables ne devraient pas s'engager dans la science ! Les intellectuels constituent un milieu scientifique particulier. Ses représentants les plus éminents constituent la soi-disant élite (de l'élite française - le meilleur, le choix). Selon certaines estimations, les poussées d'activité scientifique de l'élite ont deux pics : le premier à l'âge de 32-36 ans, le second - à l'âge de 42-46 ans. Une telle fécondité scientifique est héritée dans de rares cas. Selon certaines observations (V.P. Kokhanovsky, T.G. Leshkevich et autres), avec l'âge, l'élite perd son « élite », préservant formellement son image et ralentissant l'avancement des jeunes. Notez que le raisonnement des auteurs sur les élites en science n'a aucune preuve empirique, mais on suppose qu'il peut y en avoir. Ainsi, par exemple, V.P. Kokhanovsky considère cinq signes comme des conditions d'appartenance à l'élite, dont la présence, selon lui, est à la base de la promotion dans la catégorie des élites:

1) élection d'un scientifique en tant que membre effectif, membre correspondant, membre honoraire d'académies, d'institutions et de sociétés scientifiques ;

2) décerner des prix et des médailles pour l'activité scientifique ;

3) inclusion d'informations biographiques sur le scientifique dans des ouvrages de référence et des encyclopédies spéciales;

4) participation aux travaux des comités de rédaction, publications à haute qualification scientifique ;

5) un indice élevé de citation d'un scientifique par les membres de la communauté scientifique mondiale.

Une approche institutionnelle de la science en Russie n'a pas encore pris forme, mais elle promet une perspective positive. L'ancêtre de cette approche est le sociologue américain Robert King Merton (né en 1910). Comme vous le savez, le concept d'"institution sociale" reflète le degré de fixation d'un type particulier d'activité humaine et de relations informelles par le type d'accords et de négociations à la création de structures organisationnelles. A cet égard, il existe un mot d'usage concernant les institutions politiques, sociales, religieuses, ainsi que l'institution de la famille, de l'école, de l'institution. Mais la base philosophique de ce phénomène en Russie n'est pas encore développée.

L'institutionnalité par rapport à un sujet individuel a une force coercitive. L'Institut, selon Weber, unit les gens, les inclut dans des activités collectives, systématise les processus éducatifs. À leurs débuts, ces normes existaient dans les monastères et les universités médiévales, dans le système de l'activité scientifique professionnelle. L'efficacité de l'éducation est déterminée par les objectifs fixés par les participants au processus ; cela dépend de ce qu'ils veulent réaliser à travers l'éducation. Et le problème de l'orientation professionnelle et sociale est lié à cela, c'est-à-dire comment une personne détermine sa place dans la vie, dans le système des relations sociales.

L'orientation professionnelle et sociale sont largement interconnectées. Ainsi, si l'orientation professionnelle implique l'existence d'un ensemble de professions dans lesquelles le sujet peut réaliser ses opportunités disponibles, alors l'orientation sociale s'entend comme la détermination par une personne de sa place dans le système des relations sociales, son choix de sa position sociale . La société a tort si elle ne soutient pas le désir d'avancement social des gens. Ce désir crée de la compétitivité et, par conséquent, la société a plus de possibilités de choisir des candidats pour certains postes, y compris en sciences. Les transformations du marché en Russie ont considérablement accru l'orientation des jeunes vers l'éducation. Il y a de plus en plus de gens qui veulent faire des études financières, économiques, juridiques, et il y a de moins en moins de gens qui veulent devenir travailleurs. Les gens ne veulent pas être un objet, mais le sujet de leur destin, ils veulent prendre une position active dans la vie. Ils n'attendent plus de faveurs ni de la nature ni des autorités. Comme l'écrit Zh. T. Toshchenko, lors de l'étude de l'orientation professionnelle des élèves du secondaire, il s'est avéré qu'un seul des répondants souhaitait devenir ouvrier - un prospecteur (il semble qu'il rêvait de trouver une pépite d'or!).

7.2. Développement des méthodes de transfert des connaissances et de la dynamique des connaissances scientifiques

Chaque pays est intéressé par le progrès de la science en raison de ses avantages évidents pour son développement. Dans la société humaine, il existe plusieurs façons de transmettre les connaissances de génération en génération : synchrone, diachronique, translationnelle, etc. L'essence de la transmission synchrone est l'assimilation des connaissances dans la communication par contact entre générations lorsqu'elles existent ensemble. La méthode diachronique implique le transfert des connaissances entre les générations par la transmission des connaissances. Il n'y a pas de ligne infranchissable entre ces formes, elles se croisent et se complètent mutuellement. La société moderne améliore constamment les méthodes de transfert des connaissances à la fois horizontalement (territorialement) et verticalement (de génération en génération). Le mode de transmission des connaissances le plus important - l'écriture - caractérise le niveau de développement de la société, relie le passé au présent et au futur, le rendant intemporel. La diffusion massive de l'écriture a contribué à la formation de la soi-disant société de l'information.

On croit que la langue parlée est la plus proche du signifié. Des mots, une voix, sont plus proches de la raison qu'un signe écrit. Une telle structure à deux couches de la langue a été étudiée pour la première fois par le célèbre linguiste suisse Ferdinand de Saussure (1857-1913). Il a proposé de considérer le langage comme un système, en distinguant la linguistique du langage et la linguistique de la parole, la synchronie et la diachronie, et a distingué des propriétés du langage telles que l'objectivité et l'opérationnalité. La connaissance scientifique a ses propres exigences vis-à-vis du langage : neutralité, absence d'individualité et juste reflet de l'être. Le langage de la science doit être une copie de l'objet d'étude, même s'il se révèle toujours prisonnier de la mentalité, contenant les traditions d'expression, les habitudes, les superstitions, l'"esprit" du peuple. L'écriture a été conçue à l'origine comme un moyen de représenter la parole et comme un moyen de remplacer la participation personnelle, mais en même temps, elle a limité la réflexion libre, suspendu le flux de la pensée.

Les modes de transmission des connaissances scientifiques sont liés au type de système social. Dans une société traditionnelle, une place importante est occupée par la figure d'un enseignant, un enseignant qui transmet des connaissances à ses élèves. L'étudiant doit saisir et révéler des significations, désobjectiver le contenu de la connaissance, l'appliquer à ses propres actions individuelles. Aujourd'hui, les technologies de l'information ont une grande influence sur la transmission des connaissances scientifiques. Ils présentent des avantages non négligeables : ils disposent d'une quantité d'informations beaucoup plus importante, d'une vitesse de traduction et de traitement plus élevée. L'intensification des technologies de l'information augmente le niveau d'éducation des personnes, l'intellectualisation de la société, et étend son informatisation. La nouvelle réalité offre à une personne des modes d'interaction virtuels : anonymes, impersonnels, sans moralisation. Internet brouille les critères d'apprentissage stricts, ce qui rend difficile la sélection d'informations significatives. Il est « de l'autre côté du bien et du mal ».

7.3. Le problème de la régulation sociale de la science

La régulation sociale de la science est un processus de développement par la société et l'état des orientations de valeurs, des priorités stratégiques, des normes juridiques régissant les activités de la communauté scientifique, des organismes de recherche et des scientifiques spécifiques. La nécessité d'une telle réglementation est due au fait que la science, étant une institution sociale, remplit des fonctions importantes liées à la croissance de nouvelles connaissances, au développement du progrès scientifique et technologique, etc. Par conséquent, la société, l'État ne peuvent être indifférents aux problèmes du développement scientifique. En attendant, il existe de nombreuses controverses dans ce domaine. Le philosophe américain de la technologie E. Layton, qui a étudié le problème de la régulation sociale de la science sur l'exemple de 700 innovations technologiques, est arrivé à la conclusion qu'il est impossible d'obtenir des avantages momentanés d'un investissement en capital innovant. Comme vous pouvez le voir, la pratique empirique ne contribue pas à l'introduction d'innovations scientifiques dans l'industrie. Les mécanismes inhibiteurs de ces derniers freinent le progrès technique, "travaillent" en faveur de la préservation de la technologie existante, la protégeant des changements brusques et de la déconstruction. Cette pratique ne profite pas à l'introduction accélérée des innovations techniques dans la production et ne garantit pas que les innovations trouveront leur application technologique. Dans le même temps, les scientifiques arrivent à la conclusion que si l'activité scientifique pour la production de connaissances fondamentales et son application sont suspendues pendant au moins 50 ans, elles ne pourront jamais reprendre en raison de la dépréciation des connaissances existantes.

Le problème de l'interaction du monde artificiel avec le monde naturel reste encore insoluble. Ainsi, par exemple, les générateurs basse fréquence utilisés dans les appareils électroménagers modifient l'environnement habituel de l'existence humaine quotidienne. Mais l'étude des conséquences de leur influence n'est pas organisée, bien que des expériences préliminaires aient prouvé l'effet néfaste de cet effet sur le psychisme et la santé humaine. L'absence d'une stratégie co-évolutive dans la régulation étatique des développements technologiques introduit une disharmonie de nature psychologique et médicale dans la structure d'un mode de vie sain.

Le statut social d'un scientifique moderne est alarmant : on peut constater la présence de nombreux problèmes sociaux, économiques, logistiques, financiers, psychologiques, axiologiques et autres qui affectent négativement son statut social et juridique.

Tous les problèmes ci-dessus peuvent être résolus par rapport au système de relations qui s’est développé entre la science et le gouvernement. Le philosophe français M. Foucault a tenté de clarifier la relation entre pouvoir et savoir. Il lui semblait que la science est synonyme de pouvoir, et il a formulé l'idée « La connaissance est le pouvoir » (version russe : « La connaissance est le pouvoir »). Les relations entre le gouvernement et la science en Russie ont toujours été complexes. En particulier, le gouvernement soviétique, se cachant derrière la démagogie sociale sur la convergence progressive du travail physique et mental au cours de la période dite de « construction élargie du communisme », a poursuivi une ligne politique visant à réduire les salaires des travailleurs scientifiques au niveau de les salaires des ouvriers engagés dans le travail manuel, afin de créer ainsi l'apparence de la réalisation de son entreprise de propagande. Peu à peu, à la suite de cette politique aventureuse, le prestige du travail mental a diminué. Les Soviétiques sont tombés dans l’oubli, mais la tendance perdure par inertie, stimulant la migration là où la pensée humaine vaut quelque chose : vers l’Occident. Selon certaines estimations, le nombre de personnes émigrées du pays au début de ce siècle dépassait les dix millions. Certes, les pertes humaines de cette époque ont été compensées par l’afflux du Sud, le retour des compatriotes dans leur patrie historique et l’afflux de main-d’œuvre non qualifiée, de chômeurs, en provenance des anciennes républiques fraternelles. En vérité, totalitarisme et science sont incompatibles !

7.4. Coûts du progrès technologique et problèmes pour surmonter les crises mondiales

Les changements modernes dans le monde associés au progrès technologique se sont produits principalement en raison d'une augmentation significative de l'emploi dans le secteur des services et, au contraire, d'une réduction significative du nombre de travailleurs dans le système de production. Par exemple, aux États-Unis à la fin du siècle dernier, 22 % des travailleurs étaient employés dans l'industrie, 3 % dans l'agriculture et 75 % dans le secteur des services. La libération de la main-d'œuvre dans la sphère de la production et sa redistribution en faveur des services ont été facilitées par des facteurs tels que la croissance de la productivité du travail, l'automatisation des opérations de travail, etc. Le secteur des services n'est pas seulement les services aux ménages. La catégorie des services comprend les services d'information, les services commerciaux, professionnels, juridiques, organisationnels, publicitaires, médicaux, éducatifs, commerciaux, de transport, de communication, etc.

Un alignement similaire dans la répartition des ressources en main-d'œuvre est caractéristique de la plupart des pays occidentaux développés qui ont atteint le niveau de la société post-industrielle dans leur développement. L'introduction de technologies de pointe dans l'industrie et l'agriculture s'est avérée si importante qu'il est devenu possible de "redistribuer" une quantité importante de ressources en main-d'œuvre dans le secteur des services et de la commercialisation. Telle est la spécificité de la société post-industrielle, souvent aussi appelée société de l'information. La signification d'une telle bifurcation de ce concept est que ce type de société est associé à une activité humaine accrue, et il est impossible de l'imaginer sans support d'information, sans la capacité d'une personne à réagir rapidement à une situation de vie changeante, son initiative , compétences en communication; sans son éducation et sa conscience, son éducation et ses compétences. Les gens dans cette société ne sont pas aussi divisés selon les lignes de classe ; ces signes sont effacés, bien qu'ils n'aient pas complètement disparu.

Dans une société postindustrielle, la division des travailleurs selon des critères de classe cède la place à une différenciation basée sur le revenu. Ainsi, les salariés dans une telle société ne sont pas seulement des ouvriers (comme c'était le cas dans une société industrielle), cette catégorie comprend à la fois des spécialistes et des dirigeants d'entreprises, chacun pouvant avoir sa propre part dans la production sous forme d'actions. Une autre couche sociale, non moins courante, de la société postindustrielle est celle dite des couches moyennes, qui, en règle générale, constituent la base de la société. Au sommet de cette division se trouvent les couches à revenus élevés et très élevés. D'autre part, en bas, se trouvent les couches aux revenus extrêmement faibles, qui reçoivent des subventions de la société, et encore plus bas, les marginalisés, qui constituent une « réserve » pour la toxicomanie et la criminalité. La division donnée n’est pas immuablement stable. Au contraire, elle est instable, ce qui en sociologie est envisagé en termes de mobilité verticale. La justice sociale dans la société postindustrielle s’obtient sous des formes civilisées, par le biais de négociations et par la médiation des syndicats entre employeur et employé.

Le lien entre science et économie constitue un problème particulier de la société postindustrielle. D'une part, la spécificité de ce problème réside dans le fait que sa solution, outre l'intensité énergétique, est également financièrement coûteuse et nécessite des investissements importants à la rentabilité incertaine. Dans de nombreux cas, les projets scientifiques sont soutenus par des organismes privés comme le Club de Rome. D’un autre côté, le développement de la technologie, séparé des objectifs humanistes, peut avoir des conséquences dévastatrices : menaces de catastrophes environnementales ; les conséquences imprévisibles du développement du génie génétique et du clonage ; vision scientifique du monde, etc. Ce type de danger peut être envisagé sous deux aspects : naturel (séismes, inondations, chutes de neige, avalanches, etc.) et d'origine humaine (erreurs de planification, de calcul, de conception, etc.). Dans le même temps, la prévision est l’un des outils scientifiques importants et responsables. L'environnement, les composantes socioculturelles, la dynamique du marché, les priorités gouvernementales sont autant d'éléments importants du processus de prévision.

Dans le système « science - technologie », le problème de la responsabilité du scientifique devient important. Aujourd'hui, un scientifique engagé avec succès dans la recherche scientifique réalise l'importance de sa découverte et la met lui-même en pratique. Or, l'étape actuelle du développement de la science se caractérise par des développements collectifs scientifiques et techniques multiformes, ramifiés, complexes, fédérés non pas autour d'un leader, mais autour d'un concept, d'une idée. Le principe de la responsabilité personnelle du scientifique pour les conséquences de ses découvertes est remplacé par le principe de la responsabilité collective, souvent dépersonnalisé. De ce fait découle nécessairement un accroissement du rôle de l'État dans la régulation des processus de progrès scientifique et technologique.

7.5. Problèmes de régulation sociale du progrès scientifique et technologique

En entrant dans le XNUMXe siècle, la société russe a soudainement ressenti le besoin d'une autodétermination spatiale et temporelle et le développement d'une stratégie de développement socio-politique scientifiquement vérifiée. Parmi les nombreux paradigmes possibles (modernisation, postmodernisation, mondialisation, virtualisation), la préférence a été donnée à la mondialisation avec un léger biais de modernisation et une pointe de postmodernisation. À cet égard, les travaux de I. Wallerstein, S. Eisenstadt, J. Alexander, R. Robertson, W. Beck et d'autres se sont avérés très demandés en philosophie sociale. Les philosophes sur cette question étaient principalement avec des publications révélatrices adressées aux auteurs étrangers. Certains aspects de la typologie des changements sociaux ont été abordés dans les travaux de N. E. Pokrovsky, A. F. Filippov, V. F. Shapovalov et d'autres Nikolai Berdyaev, bien qu'il soit évident que le philosophe du XIXe siècle ne pouvait pas regarder aussi loin. V.P. Kokhanovsky et ses co-auteurs, notant le rôle du pouvoir dans le développement de la science, écrivent sur sa double fonction : soit il supervise la science, soit il dicte les priorités du pouvoir. Cette dernière dépend, selon nous, non pas du gouvernement, mais de la personne spécifique qui le représente, de son autoritarisme ou de sa démocratie, de sa culture ou de son absence.

La dynamique du progrès scientifique est présentée sous la forme la plus détaillée dans les travaux de Thomas Kuhn. Pour lui, l'activité scientifique est un événement d'ordre axiologique, sociologique et psychologique. Le concept paradigmatique qu'il a développé caractérise le plus clairement le processus de développement de l'activité scientifique. Dans la naissance des paradigmes, le rôle de l'intuition et de la manière d'interpréter les innovations est grand. Le changement de paradigmes ressemble vaguement au changement des formations socio-économiques à travers les révolutions sociales (selon Marx), mais heureusement avec moins de pertes humaines. Idéalement, le changement naturel des paradigmes de la science rend inutile la régulation étatique de cette dernière, d'autant plus que l'État n'est pas une entité scientifique, mais une entité politique et administrative dont les méthodes sont contre-indiquées pour la science. À cet égard, la science est interprétée à travers le concept d’éthique.

L'éthique (du grec ethika, de ethos - coutume, coutume, caractère) est la science des moyens permettant à une personne de surmonter ses défauts. Ce terme a été introduit pour la première fois dans l’usage scientifique par Aristote. Dans son Éthique à Nicomaque, cette encyclopédie de la morale, il a développé la base des règles – des lois pour la mise en œuvre des bonnes actions. Emmanuel Kant a avancé le principe de l'impératif catégorique - une loi universelle pour tous : agir comme devraient agir tous ceux qui augmentent le bien de la société. Les systèmes éthiques ont été créés à différentes époques. Le système éthique le plus prometteur est considéré comme l’éthique conventionnelle axée sur les valeurs, qui est organiquement en corrélation avec la méthode pragmatique de la science. Il protège contre la spéculation grâce à sa valeur claire et à son contenu axiologique, et élimine le danger de glisser vers le mercantilisme et le naturalisme.

Les personnalités éminentes de la science ont toujours eu un intérêt pour les problèmes d'éthique. Par exemple, le grand philosophe matérialiste hollandais Benoît (Baruch) Spinoza (1632-1677), adepte des enseignements de D. Bruno, R. Descartes, T. Hobbes, s'est fait l'un des représentants radicaux du déterminisme, opposants à la téléologie. Dans la théorie de la connaissance, il s'est appuyé sur l'esprit, qu'il considérait comme une propriété infinie de l'homme - faisant partie de la nature. Le principal ouvrage philosophique de Spinoza est L'éthique prouvée dans l'ordre géométrique (1675). L'éthique de Spinoza est la doctrine de la substance et de ses modes.

Dans le livre connu du monde des scientifiques "Last Thoughts"Henri Poincaré (1854-1912) développe les conséquences mathématiques du postulat (du latin postulatum - exigence).

1. Les principes de la science, les postulats de la géométrie ne s'expriment qu'au mode indicatif, les vérités expérimentales s'expriment au même mode, et il n'y a et il ne peut y avoir autre chose à la base des sciences.

2. En science, on ne peut pas obtenir une phrase qui dirait : fais ceci ou ne fais pas cela, ce qui correspondrait ou contredirait la morale.

3. La science nous excite, ce plaisir qui nous fait nous oublier nous-mêmes, et en cela elle est hautement morale.

4. L'harmonie des lois de la nature donne l'idéal, et c'est la seule base sur laquelle la morale puisse être bâtie.

5. La passion qui anime le savant est l'amour de la vérité, et cet amour n'est-il pas le plus moral ?

6. La science conduit à la subordination des intérêts privés aux intérêts communs, et il y a encore de la morale là-dedans.

7. La science nous donne le sens de la coopération nécessaire, de la solidarité de nos travaux avec les travaux de nos contemporains, de nos prédécesseurs et de nos disciples.

8. La science ne tolère pas les mensonges, l'insincérité.

9. La science, au sens large, enseignée par des enseignants qui la comprennent et l'aiment, peut jouer un rôle très utile et important dans l'éducation morale.

Pour Poincaré, la morale est en dehors de la science, mais au-dessus de la science. Ses propos sont contradictoires par endroits, ils sont discutés, analysés, mais il est impossible de ne pas reconnaître leur signification utilitaire dans la science. Poincaré est le fondateur du conventionnalisme, de la cohérence (appliquée aux mathématiques et à la physique). Plus tard, Rudolf Carnap (USA) a utilisé cette méthode pour développer le principe du positivisme logique et de la logique inductive.

A. Einstein caractérise la relation entre l'éthique et la science d'une manière particulière. Il ne croit pas que la science puisse enseigner aux gens la morale, l'éthique du comportement. Ne croit pas que la philosophie morale puisse être construite sur une base scientifique. Une théorie scientifique, selon Einstein, ne fournit pas encore une base pour un comportement moral, mais elle ne peut pas non plus contredire la moralité. Les gens attendent trop de l'éthique. Les questions éthiques fondamentales auxquelles le scientifique veut une réponse sont : qu'est-ce qui peut être ? que dois-je faire pour atteindre le possible? quelle est la différence entre un possible et un autre possible ? Sans répondre à ces questions, certains considèrent l'éthique comme non scientifique.

L'éthique est donc une science pragmatique. Une compréhension claire du statut de l'éthique est la clé pour comprendre la dimension éthique de la science dans son ensemble.

7.6. Progrès scientifique et technologique, contrôle public et administration publique

L'administration publique est l'activité d'organisation et de régulation de diverses branches publiques et étatiques du gouvernement agissant au nom des lois fondamentales de la société (VE Chirkin). La gestion sociale implique l'impact sur la société afin de la rationaliser, de préserver ses spécificités qualitatives, de l'améliorer et de la développer. Il existe également un système de contrôle spontané, dont l'impact sur le système est le résultat de l'intersection de forces diverses, de masses, d'actes individuels aléatoires (par exemple, le marché), ainsi que d'un contrôle conscient effectué par des organisations étatiques. Les limites, le contenu et les objectifs de la gestion dépendent de la nature du système étatique.

Le progrès scientifique et technologique a un impact significatif sur la nature de l'administration publique, et son rôle n'est nullement diminué dans une économie de marché. La gestion à l'échelle d'un Etat comme la Russie est, pourrait-on dire, une fatalité, une nécessité objective. La mise en œuvre des intérêts économiques actuels dans le cadre d'un modèle économique de marché rend les projets innovants très conflictuels, basés sur des décisions contre nature qui ne tiennent pas compte des possibilités de l'environnement. L'ampleur de l'innovation technique, la conquête de la nature, l'épuisement de ses ressources témoignent souvent de la myopie des hommes, des erreurs de calcul et de l'arbitraire qui nuiront à de nombreuses générations pendant de nombreuses décennies. Par conséquent, pour le stade actuel de développement de l'économie et de la production, les exigences de la réglementation étatique des développements technologiques sont pertinentes et l'amélioration de la stratégie de co-évolution n'est pas moins importante. Elle nécessite une imbrication organique des lois de l'environnement technique et de la réalité naturelle, une convergence harmonieuse de tous les types de systèmes.

N. A. Berdyaev écrivait avec inquiétude sur les coûts de l'administration de l'État: "La conséquence fatale de la technologie, soumise uniquement à sa propre loi, qui donne lieu à des guerres mondiales techniques, est une augmentation exorbitante de l'étatisme. L'État devient omnipotent, de plus en plus totalitaire , et pas seulement dans les régimes totalitaires ; elle ne veut reconnaître aucune limite à son pouvoir et ne considère la personne que comme un moyen ou un outil » [14] .

Le classique du management en conditions de marché, Henri Fayol, remonte au début du XXe siècle. a écrit : « Gérer signifie organiser, gérer, coordonner et contrôler ; prévoir, c'est-à-dire prendre en compte l'avenir et élaborer un programme d'action ; organiser, c'est-à-dire construire un double organisme – matériel et social. de l'institution; disposer, c'est-à-dire forcer le personnel à travailler correctement; coordonner, c'est-à-dire relier, unir, harmoniser toutes les actions et tous les efforts; contrôler, c'est-à-dire faire en sorte que tout soit fait conformément des règles établies et des ordres donnés"[15].

Dans la théorie de l'administration publique, on en distingue deux types. La gestion directe est effectuée dans le système de sécurité, de maintien de la vie, d'ordre du système économique et social. Parmi les objectifs prometteurs de la gestion figurent l'amélioration de la qualité de vie de la population, la garantie de ses droits et libertés, la garantie de la justice sociale et du progrès social. Le volume et la complexité de la résolution de ces problèmes peuvent être imaginés si l'on tient compte de la quantité de ressources matérielles et de ressources dépensées pour construire le communisme et pousser un tiers de l'humanité à "se développer" dans cette direction. Malheureusement, pendant la période soviétique, la Russie n'a pas compris les méthodes et les formes optimales de gestion économique.

Les concepts de la soi-disant technocratie, ou la puissance de la technologie, en cours de développement en Europe (en Russie, A. A. Bogdanov a utilisé le concept de "déterminisme technologique" comme synonyme, prévoyant la gestion du pays par des spécialistes techniques), avaient l'objectif principal de parvenir à une transformation révolutionnaire du niveau de vie de la population par la mise en œuvre de la révolution scientifique et technique (T. Veblen, A. Berl, A. Frisch, JK Gilbraith et autres). Le maillon faible de la conception technocratique du développement social réside dans sa sous-estimation de la composante spirituelle dans la vie de la société. Ce concept passe à côté des problèmes de l'autonomie publique au niveau intermédiaire du système administratif, de la culture de formes démocratiques de recrutement au pouvoir, du développement des institutions de la société civile et des droits de l'homme. Ce concept ne prévoit pas de garanties qui protègent la société des crises, des risques, des actes terroristes et des catastrophes naturelles.

Sociologue et philosophe de renom Carl Manheim (1893-1947) a noté que les principaux problèmes de l'Occident contemporain sont les problèmes de réalisation de l'unité nationale, la participation de la population à l'administration publique, l'inclusion de l'État dans l'ordre économique mondial, ainsi que les problèmes sociaux. Certains de ces problèmes concernent également la Russie moderne. Par exemple, la Russie doit créer un espace d’information unifié. Nous avons beaucoup de problèmes dans le domaine économique. La Russie occupe une place de premier plan dans le monde en termes de niveau de différence entre les pauvres et les riches, dont la richesse doit être légalisée et légitimée. Le principe de justice dans la résolution des problèmes sociaux n'est pas encore devenu fondamental pour notre pays. Les problèmes d'un niveau de vie décent pour la population préoccupent les syndicats, les médias, les associations et les organisations publiques. En « découvrant » le XXe siècle, l’humanité a regardé le monde avec optimisme. On espérait que la science sauverait le monde et apporterait le bonheur aux gens. En entrant dans un nouveau 1993ème siècle, l’humanité était préoccupée par le manque de ses droits. Avec l’avènement du mouvement des droits de l’homme, le monde a commencé à être divisé selon la richesse ou l’absence de ce phénomène. Le respect des droits d’autrui est devenu la base de la communication non seulement pour les personnes, mais aussi pour les États. La Russie, après avoir effectué une transition historique du totalitarisme à la démocratie, a rejoint les rangs des pays civilisés. Après avoir adopté la Constitution en XNUMX, la Fédération de Russie s’est déclarée un État de droit fondé sur la société civile.

Le développement du principe personnel pour une personne moderne se transforme en une perte du sens du « nous » et en l'acquisition d'un sentiment de « solitude dans la foule ». Humain, par définition Herbert Marcuse (1898-1979), devient "unidimensionnel", avec une attitude socialement critique envers la société atrophiée, et de ce fait, il n'est pas en mesure de freiner et d'empêcher les changements sociaux qui peuvent s'avérer répréhensibles. Dans le même temps, la société s'avère objectivement capable de lui imposer des besoins répréhensibles, « faux », l'entraînant dans une course aux armements qui lui est préjudiciable. Cette tendance menace la classe ouvrière de perdre son rôle révolutionnaire dans l'histoire. Cette place traditionnelle de la classe ouvrière dans les conditions modernes passe entre les mains des "outsiders" (lumpen, minorités nationales persécutées, chômeurs, etc.), ainsi que des étudiants et intellectuels radicaux. En son temps, Marcuse a écrit sur la perte par les partis marxistes de leur ancien rôle révolutionnaire et sur la nature révolutionnaire de leurs programmes politiques. A l'échelle mondiale, les porteurs de l'initiative révolutionnaire, selon lui, sont les peuples défavorisés du "tiers monde", pour la plupart "unidimensionnels". Décrivant les caractéristiques d'une personne "unidimensionnelle", Marcuse a noté sa sociabilité, son insatisfaction face à la vie, sa solitude dans une situation d'inutilité. Pour fragiliser ces traits, comme le croyait le philosophe, il est possible d'organiser une tutelle sociale : une « helpline », familiarisation avec l'art et la littérature, les opposant au sentiment de consommation galopant.

Thème 8. Les grandes orientations de la philosophie des sciences dans le monde

8.1. Herméneutique - l'héritage philosophique de H. G. Gadamer

Le développement de la philosophie de l'herméneutique comme l'une des directions de la philosophie européenne moderne a été lancé par l'historien du droit italien Emilio Betti (1890-1970), puis poursuivi par le philosophe allemand Hans Georg Gadamer (1900-2002) dans ses travaux " Manifeste herméneutique" (1954), "Compréhension de la théorie générale" (1955), "Vérité et méthode" (1960). Gadamer reconstruit les enseignements de ses prédécesseurs et crée une philosophie de la compréhension. Dans sa définition, il s'agit d'une manière de maîtriser le monde par une personne, dans laquelle, à côté des connaissances théoriques, l'expérience directe ("expérience de la vie"), consistant en diverses formes de pratique (expérience de l'histoire), des formes d'expérience esthétique , (« l'expérience de l'art ») joue un rôle important. Le référentiel de l'expérience est le langage et l'art. Les sources de l'expérience sont l'éducation, les légendes, les traditions culturelles, comprises par l'individu dans la société. L'expérience herméneutique dans l'enseignement de Gadamer est incomplète, ce qui, selon lui, est le problème épistémologique de la société. Dans le même temps, le rôle de la compréhension de soi du sujet et sa coïncidence avec l'interprétation, l'interprétation de son existence est essentielle. Le philosophe voit le sens principal de la compréhension du texte de quelqu'un d'autre dans « entrer dans la subjectivité de quelqu'un d'autre ». Vraiment : il est impossible de comprendre l'autre sans se sentir à sa place ! Gadamer dans le livre "Vérité et méthode. Les principales caractéristiques de la philosophie de l'herméneutique" poursuit les traditions métaphysiques de Platon et de Descartes, défend l'idée que le principal vecteur de compréhension des traditions est le langage.

Gadamer considérait la soi-disant psychologie de la compréhension comme la base de l'herméneutique comme un moyen de comprendre directement l'intégrité de la vie mentale et spirituelle. Il a formulé le problème principal de l'herméneutique comme suit : "Comment l'individualité peut-elle faire d'une manifestation sensuellement donnée de la vie individuelle de quelqu'un d'autre le sujet d'une connaissance objective universellement valable ?" Analysant la conscience « pure », Gadamer distingue l'arrière-plan inconscient des actes intentionnels, reléguant l'herméneutique au rôle de la doctrine de l'être dans les traditions de la dialectique hégélienne. Il arrive à la conclusion que le lien trop étroit de l'être avec son passé est un obstacle à la compréhension historique de la véritable essence et valeur. Selon Gadamer, la base de la connaissance historique est toujours une compréhension préliminaire donnée par la tradition au sein de laquelle la vie et la pensée se déroulent. La pré-compréhension est disponible pour la correction, l'ajustement, mais il est totalement impossible de s'en débarrasser. Gadamer considérait la pensée sans prérequis comme une fiction qui ne tient pas compte de l'historicité de l'expérience humaine. Le support de la compréhension est le langage, la compréhension linguistique, révélée dans les travaux de W. Humboldt.

La conscience - "horizon non thématique" - fournit des connaissances préliminaires sur le sujet, qui constituent le contenu du "monde de la vie", qui sous-tend la possible compréhension mutuelle des individus. Selon le philosophe, dans toute étude d'une culture éloignée de nous, il faut d'abord reconstruire le "monde de vie" de la culture, par rapport auquel on peut comprendre le sens de ses monuments individuels. Les œuvres de poètes - connaisseurs de la langue - parlent de l'existence de la culture.

Les concepts de base de la philosophie de Gadamer sont "pratique", "vie", "parole", "dialogue". Expérience herméneutique, c'est-à-dire entrer dans la vie de quelqu'un d'autre, repose sur le désir de comprendre "l'autre". Au cœur de l'expérience gemeneutique se trouve la légende reflétée dans le folklore ; expérience de vie, y compris les événements vécus au fil des générations, stockés dans la mémoire des gens, dans les légendes, l'art, la culture, dans l'utilisation des mots. L'art, selon Gadamer, peut donner un nouvel élan à la philosophie de la vie. Les traditions culturelles contribuent à la compréhension de soi et à l'intégration de l'individu dans la société, postulant son enracinement génétique. C'est ainsi que s'achève le cercle herméneutique, établissant l'enchaînement des générations et leur continuité ; l'incomplétude épistémologique de l'expérience herméneutique (passage dans la subjectivité d'autrui) est constatée.

Gadamer écrit : "Une personne expérimentée nous apparaît comme une personne fondamentalement adogmatique qui, précisément parce qu'elle a tant vécu et tant appris de l'expérience, a une capacité particulière à acquérir une nouvelle expérience et à apprendre de cette expérience. La dialectique de l'expérience reçoit son achèvement final sur lequel quelque chose de la connaissance finale, mais dans cette ouverture à l'expérience qui surgit de l'expérience elle-même"[16] .

La principale chose qui s'acquiert dans l'expérience est la disposition au renouveau, au changement, à la rencontre de « l'autre », qui devient « le sien ». L’expérience des expériences, des erreurs, des souffrances, des espoirs brisés conduit à la prise de conscience de ses limites et en même temps à l’ouverture de l’être humain fini à la lumière de l’universel, de l’universel. L’ouverture de l’expérience, la connaissance qu’on peut se tromper, conduisent à la recherche de la vérité à travers une compréhension personnelle basée sur sa propre expérience. Mais l’expérience n’est pas seulement un test moral : elle teste la force de nos compétences. L'expérience est pratique. Il apaise les fantasmes et lie l'esprit à la réalité. Sur le chemin de la connaissance, vous pouvez accéder à la vraie connaissance et forcer la nature à vous servir.

Gadamer divise le processus de compréhension en ses éléments constitutifs. Il distingue la pré-compréhension, qui découle du fait d'être tourné vers le cas sous la forme de préjugé, de préjugé, de préjugé. La tradition est impliquée dans la pré-compréhension : nous sommes toujours à l'intérieur de la tradition, croit le philosophe. Une personne dans la perception du texte lui permet de "parler". Si une personne veut comprendre le texte, alors elle doit "l'écouter".

L'herméneutique s'immisce dans la subjectivité humaine. La compréhension n'est pas un transfert dans une subjectivité étrangère. Il agit comme une extension de son horizon et une vue sur un autre "quelque chose" dans les bonnes proportions. A Gadamer, les choses ne parlent pas seulement parce qu'elles n'ont pas la capacité de parler. Dans leur silence, cependant, ils déterminent la structure de la langue, l'environnement dans lequel une personne vit. La chose se conserve dans le mot. La pensée est l'explication du mot.

Gadamer accorde beaucoup d'attention à la compréhension du beau, qui pour lui est le Bien. Le beau en lui-même est porteur de clarté et d'éclat, c'est une voie de manifestation du bien, de l'existant, donné sous une forme ouverte, en proportion et en symétrie. Le beau est la couronne de la compréhension, sa plénitude.

L'héritage théorique de Gadamer est controversé. Son livre « Vérité et méthode » reflète le but de la vie du philosophe. Il décrit deux problèmes : la vérité et la méthode. A cette occasion, les critiques ont ricané : le titre correct du livre ne devrait pas être « Vérité et méthode », mais « La vérité, mais pas la méthode ». Dans une de ses lettres à son critique, Gadamer écrit : « En substance, je ne propose aucune méthode, mais je décris ce qui existe » [17] .

V. A. Kanke, qui a étudié l'héritage théorique de Gadamer, note à juste titre : « ... Au fil des années qui se sont écoulées depuis la publication de Vérité et méthode, leur historicité a été pleinement mise en évidence. Cela a considérablement rapproché la compréhension des sciences naturelles et humaines. L'opposition de l'herméneutique aux sciences naturelles a perdu de son acuité"[18].

8.2. Philosophie de Martin Heidegger

Penseur allemand qui a eu un impact énorme sur la philosophie du XXe siècle. Martin Heidegger (1889-1976) a commencé sa carrière comme assistant du professeur Edmund Husserl de l'Université de Fribourg. Après la retraite du patron, il a dirigé le département. Avec l'arrivée au pouvoir des nationaux-socialistes en Allemagne, Husserl est tombé en disgrâce pour son origine juive et Heidegger a été contraint de prendre ses distances avec lui.

Heidegger est devenu célèbre en tant que créateur de la doctrine de l'ontologie (littéralement « la doctrine de l'être », du grec on, gen. intos – existant et logos – mot, doctrine). Le terme « ontologie » apparaît pour la première fois dans le Lexique philosophique de Christian Wolff (1679-1754). Heidegger, dans son « ontologie fondamentale », isole la « pure subjectivité » à travers l’analyse de l’existence humaine existante et cherche à la libérer des formes d’existence « inauthentiques ». Dans son ouvrage « Être et temps » (1927), il soulève la question du sens de l'existence, qui, selon lui, s'est avérée « oubliée » par la philosophie européenne traditionnelle. Après la publication de ce livre, Heidegger a publié un grand nombre d'ouvrages philosophiques (plus de 100 volumes), mais est resté à jamais fidèle aux idées contenues dans ce livre. Il acquiert une renommée nationale et est élu recteur de l'Université de Fribourg. C'étaient les années de la montée du fascisme en Allemagne, et Heidegger fut obligé de licencier tous les juifs et socialistes, ce avec quoi il ne pouvait pas être d'accord. Il fut donc contraint de quitter le poste de recteur, mais continua à rester membre du parti fasciste. parti jusqu'en 1945. Par la suite, les autorités l'ont accusé de sympathiser avec le nazisme, elles ont exigé le repentir public, mais cela ne s'est pas produit et il, offensé, a quitté son activité de conférence.

Dans l’ensemble, l’héritage philosophique de Heidegger peut être qualifié de prédication de l’existentialisme. Pour lui, l’homme est la seule créature qui pose la question de l’existence et y cherche un sens. La compréhension du sens de la vie, à son tour, est associée à la conscience de la fragilité de l’existence humaine. Considérant le concept d'authenticité-inauthenticité dans le système de l'existence quotidienne, Heidegger attire l'attention sur le fait que la plupart des gens passent une partie importante de leur temps dans le monde du travail et dans la société, sans réaliser les possibilités de l'existence individuelle. Du point de vue de Heidegger, le souci d'une personne de sa place dans la hiérarchie sociale et l'intérêt pour son statut social déterminent sa subordination aux « autres » : une personne doit faire ce qu'« ils » approuvent et exigent (das Man). Au cours de ce comportement conformiste, l’individu est soumis à l’influence subtile et souvent imperceptible des normes et conventions sociales et néglige sa capacité à s’engager dans des formes indépendantes d’activité et de pensée. La soumission et la dépendance aux normes sociales dans la vie quotidienne se manifestent principalement dans la moyenne du comportement social au niveau d'homogénéité et d'identité, ainsi une personne est libérée du besoin d'existence individuelle et de la responsabilité de son existence individuelle et s'adapte à la société. Pendant ce temps, écrit Heidegger, "existant dans les modes nommés, le soi de sa présence et le soi de la présence des autres ne se sont pas encore trouvés et, par conséquent, l'ont perdu. Les gens existent d'une manière de non-soi et de non-propriété". » [19].

La caractérisation de Heidegger de la manière non authentique du comportement humain qui prévaut dans leur existence quotidienne, selon lui, avait une «signification purement ontologique» et est très loin d'une critique moralisante de la présence quotidienne et des «aspirations culturelles et philosophiques». La question centrale pour interpréter les réflexions de Heidegger sur l'authenticité-non-authenticité se pose : s'il s'agit de catégories purement descriptives ou évaluatives. Bien qu'un certain nombre d'interprètes de Heidegger penchent pour la neutralité évaluative et l'ingérence de ces raisonnements du penseur, il existe une opinion selon laquelle la distinction introduite par Heidegger est complètement dépourvue de moments évaluatifs. Premièrement, ces concepts ont des connotations évaluatives tant dans leur usage courant que dans les textes philosophiques de Kierkegaard, Nietzsche, Simmel, Scheler, auxquels remonte la dichotomie envisagée par Heidegger. Deuxièmement, certaines connotations négatives sont contenues dans la description de Heidegger dans Être et temps de la « chute » du « je » dans des manières d'être non authentiques, en particulier sa description de l'existence non authentique comme préoccupation de la routine quotidienne. En même temps, le raisonnement de Heidegger a aussi un sens cognitif, descriptif. Les autres personnes avec lesquelles l'individu vit à côté ne sont pas seulement une menace pour son existence individuelle. Il est également possible de vivre authentiquement dans l'être-avec-les-autres, si une personne parvient à les regarder précisément comme "autres", c'est-à-dire les perçoit comme ayant leur être propre (Dasein), tout comme il a son être humain. Un autre cas est également possible : nous ne les percevons plus comme Dasein. Notre attitude chaleureuse envers eux est remplacée par l'attitude de rivaux ou de ceux dont nous dépendons. Quand les autres deviennent "eux", l'acte de communication est rompu, le dialogue devient un vain discours, le besoin d'une véritable compréhension disparaît. Dans ce cas, la question du comment être est remplacée par la question « que faire ? ». La réaction est conditionnée par les normes de classe, d'ethnie, de profession, notre niveau de revenu, etc. Heidegger décrit ce cas comme la « chute » du Dasein.

Une percée vers l'existence authentique est possible, selon Heidegger, sur la base du processus de libération et d'individualisation, au cours duquel une personne éprouve de l'anxiété à mener une existence dépourvue de sens, ressent la voix de la conscience, a peur de la mort, etc. L'authenticité est la vie dans l'angoisse et avec l'angoisse, c'est la vie en pleine compréhension de notre incertitude, de notre liberté : savoir que nous allons mourir nous libère de notre chute, nous réveille. Pour être authentique, une personne doit préférer s'engager dans des possibilités authentiques, accepter sa liberté, son unicité, sa finitude, son échec, grâce à quoi elle a la possibilité de créer son "je" authentique. La clé de ce projet, selon Heidegger, est la détermination. La rencontre avec la mort révèle l'individualisation radicale de l'existence humaine. La mort est ce qui isole les individus : elle arrache l'homme au « Das man » anonyme. Dans la mort, l'individu est indispensable - personne ne peut mourir pour lui.

Heidegger interprète le sens de l'historicité d'une manière particulière. Reliant les notions de "passé historique", de "relations humaines et générationnelles", il note la volonté des hommes de dépasser le passé, en lui restant dévoués ; choisir un héros du passé comme modèle. Heidegger propose une manière de transformer une existence aliénée, dispersée en une existence sur la voie de la répétition de possibles authentiques, de créer une « éthique de la libération par l'authenticité ».

Les réflexions éthiques de Heidegger se distinguent par leur profondeur de pensée. Il se caractérise par sa propre manière, son style de philosopher, qui est sa dignité et sa sagesse, son style d'auteur.

8.3. Méthode des alternatives par Karl Popper

Le philosophe, logicien et sociologue autrichien, membre du Cercle de Vienne, Karl Raimund Popper (1945-1902), qui vit en Grande-Bretagne depuis 1994, a formulé une méthode pour résoudre des problèmes scientifiques en comparant et en critiquant mutuellement des théories concurrentes. Il a mis en avant le concept de falsifiabilité (réfutabilité) comme critère de démarcation entre science et « métaphysique ».

L'idée générale de la méthode de Popper, appelée méthode des alternatives, a été formulée dans les ouvrages "Connaissance objective", "Logique et croissance de la connaissance scientifique". Selon Popper, il est important de toujours chercher des alternatives aux hypothèses que nous avons déjà, puis de les opposer les unes aux autres, d'identifier et d'éliminer les erreurs. On s'attend à ce que l'information résultante soit supérieure à celle contenue dans toutes les hypothèses combinées. Ainsi, l'essence de la méthode ne consiste pas tant dans la « critique » de la théorie par la pratique, mais dans la découverte spéculative de nouveaux problèmes et schémas ontologiques. Les plus intéressantes en ce sens sont précisément les théories qui n'ont pas résisté aux tests pratiques - après tout, des leçons utiles peuvent être tirées des échecs qui peuvent être utiles plus tard pour créer des théories plus avancées. Plus de nouveaux problèmes inattendus surgissent dans le processus de comparaison délibérée d'hypothèses alternatives entre elles, plus la science progresse, selon Popper.

Cependant, cela soulève la question suivante : quel type de critique peut être considéré comme efficace ? L'exigence de cohérence des explications n'implique pas un rejet de l'unicité des sciences. Le critère de scientificité est un concept, mais chaque concept n’est pas lié à un seul sujet spécifique. Le fait que la physique et la sociologie correspondent au concept de « science » ne nie pas leur caractère unique. L'intérêt accru pour la connaissance scientifique et l'augmentation de sa fiabilité, en grande partie grâce aux travaux de Popper, ont conduit à la formation de ce qu'on appelle l'école historique en philosophie des sciences. Popper, postpositiviste et fondateur de ce que l'on appelle le rationalisme critique, a examiné la relation entre les théories concurrentes et successives. Il interprète l'épistémologie évolutionniste sur la base du rationalisme critique qu'il a développé.

Comment les scientifiques cherchent-ils à résoudre des situations scientifiques problématiques ? Tout d'abord, la découverte de règles, de lois, de théories dont l'utilisation permet d'expliquer et de comprendre la situation étudiée, d'en prévoir de nouvelles et d'interpréter les événements qui se sont déjà produits. Ce n'est pas un hasard si Popper trace le chemin des problèmes (situations problématiques) aux théories. Ce chemin est l'artère principale de la science. Son élaboration nécessite l'utilisation d'un certain nombre de termes dont la prise en compte peut être importante. L'empirisme en tant qu'aspect factuel de la science est capable de : a) confirmer ou, comme l'a dit Popper, soutenir une théorie ; b) faire semblant. En fait, la démarcation contient les deux critères : à la fois la confirmation et la falsification. Préoccupé par le problème de la confirmation, Popper évite d'utiliser le terme "vérité". Au lieu de vérité, il parle de renforcement (confirmation), au lieu de fausseté, il parle de falsification. Il est animé par le désir de tracer aussi clairement que possible la ligne de démarcation entre science et non-science.

Selon Popper, la science progresse d'un problème à l'autre, d'un problème moins profond à un problème plus profond. Le but de la science est d'atteindre un contenu hautement informatif et un degré élevé de sa falsification possible, de sa réfutabilité. Popper admet qu'une théorie moins profonde est plus facile à falsifier, mais qu'une théorie plus profonde doit, par définition, résister à des rencontres avec plus de faits qu'une théorie moins spécialisée. Une théorie est en danger constant de falsification, et en ce sens le degré (probabilité) de sa falsification augmente.

Une théorie grossière est plus difficile à réfuter, et les hypothèses non scientifiques, telles que celles de l'arsenal de l'astrologie, ne sont généralement pas scientifiquement falsifiables. Comme le dit le proverbe russe : "Sept personnes intelligentes ne peuvent maîtriser un imbécile !"

Un scientifique, contrairement à un simple profane, rencontre constamment le danger de falsification, de réfutation de ses vues. Sachant parfaitement que l'homme est un être erroné (fillibiliste), le scientifique s'efforce de se débarrasser de cette faiblesse qui est la sienne. Oui, la vie scientifique est une course sur une bande de problèmes, ici on ne peut pas se passer d'échecs, mais ils doivent - telle est l'aspiration d'un scientifique - être surmontés, et cela n'est possible que par l'approfondissement des connaissances scientifiques. La profondeur de la théorie est l'un des principaux concepts de la conception popperienne de l'histoire des sciences.

Tous les arguments de Popper relèvent des sciences hypothético-déductives. Ils restent valables aussi bien pour les sciences pragmatiques que pour les sciences logico-mathématiques. Lorsqu’on compare deux théories, il est toujours possible, en fonction de certains critères, de préférer une théorie à une autre. Lorsqu'on compare les sciences pragmatiques, le critère d'efficacité apparaît au premier plan. Lors de la comparaison des sciences logico-mathématiques, par exemple, le critère de cohérence et d'exhaustivité du système d'axiomes est pris en compte. Ainsi, le principe de falsification n’est pas simplement un principe anti-vérification ; ce n’est pas un moyen de vérifier la véracité des connaissances au niveau empirique. Avec son aide, Popper cherche à résoudre le problème de la révision critique du contenu des connaissances scientifiques. Il souligne invariablement que la science est un processus dynamique, accompagné d'un changement de théories qui interagissent mais ne se complètent pas.

8.4. Le concept de paradigmes scientifiques et de révolutions par Thomas Kuhn

Le physicien, philosophe et historien des sciences américain Thomas Samuel Kuhn (1922-1996) est devenu célèbre grâce à son livre « La structure des révolutions scientifiques », dans lequel il expose sa conception de la philosophie des sciences. Kuhn a présenté l’histoire des sciences comme un changement périodique de paradigmes (pour plus de détails, voir la section 5.1). Dans sa théorie, ce terme est utilisé dans deux sens : d'une part, il désigne un ensemble de croyances, de valeurs, de moyens techniques caractéristiques d'une communauté donnée, et d'autre part, il désigne la solution d'énigmes qui peuvent remplacer des règles explicites comme base. pour résoudre des énigmes scientifiques non résolues. Dans le premier cas, le terme « œuvres » comme catégorie sociologique ; nous parlons ici d'une société de scientifiques, de personnes avec leurs croyances et leurs valeurs (sujets de science). En les caractérisant, Kuhn écrit : « Les scientifiques fondent leur travail sur des modèles appris au cours du processus d'apprentissage et sur leur présentation ultérieure dans la littérature, souvent sans savoir et sans avoir besoin de savoir quelles caractéristiques ont donné à ces modèles le statut de paradigmes de la communauté scientifique. »[20 ] . Dans le second cas, la réalité des paradigmes se découvre au cours de leur application. La domination des paradigmes est une période de « science normale », qui se termine toujours par une « explosion du paradigme de l’intérieur ».

Le critère de scientificité, on le sait, n'est pas invariable, unique et arbitraire. Selon Kuhn, toute science passe par trois phases (périodes) dans son développement : pré-paradigme, paradigme et post-paradigme, ce qui correspond aux étapes de la genèse de la science, de la science « normale » et de sa crise. Le changement de paradigmes s'accomplit à travers les révolutions de la science. Elle passe par une explosion, par des catastrophes, par la destruction des structures doctrinales improductives de l'élite intellectuelle. À cet égard, Kuhn écrit : "Comme le choix entre des institutions politiques concurrentes, le choix entre des paradigmes concurrents s'avère être un choix entre des modèles de vie sociale incompatibles." L'incompatibilité des paradigmes tient au fait que le nouveau paradigme change radicalement l'interprétation des connaissances scientifiques. Un nouveau paradigme est né grâce à l'intuition. La période pré-paradigme est caractérisée par la confrontation entre écoles scientifiques. Avec l'affirmation du paradigme et le passage à la science "normale", la situation change, les écoles quittent la scène. Dans le même temps, une communauté de positions théoriques et méthodologiques de tous les représentants de cette discipline est établie. Cependant, le développement ultérieur de la science conduit à l'identification de faits qui ne peuvent être expliqués à l'aide du paradigme dominant, une crise s'installe dans la science "normale". Et puis, comme dans la période pré-paradigme, la communauté scientifique se divise à nouveau en écoles. La révolution scientifique met fin à la domination de l'ancien paradigme ; remplacé par un neuf.

Par la suite, sous l'influence de la critique, Kuhn a abandonné l'interprétation de l'école scientifique comme une éducation incompatible avec la science « normale » et le paradigme. Le terme « paradigme » a pris des positions si fortes dans toutes les branches de la connaissance que de nombreux adeptes de Kuhn et chercheurs en sciences ont commencé à appeler le paradigme le critère constructif le plus important. La condition de fonctionnement du paradigme Kuhn considère son acceptation par la communauté scientifique, qui rassemble des scientifiques qui, en règle générale, appartiennent à la même discipline scientifique, travaillent dans la même direction scientifique, adhèrent à des fondements théoriques, des principes et des méthodes de résolution des problèmes de recherche. Le concept de communauté scientifique était au centre du concept de paradigme. Pour Kuhn, le paradigme est ce qui unit les membres de la communauté scientifique : ceux qui ne reconnaissent pas le paradigme ne peuvent pas être membres de cette communauté. Les représentants de la communauté scientifique ont une formation et des compétences professionnelles similaires, ils ont maîtrisé la même littérature pédagogique et en ont tiré les mêmes leçons. Ils lisent les mêmes livres scientifiques, ont le même sens des responsabilités pour développer les objectifs qu'ils partagent. Ils peuvent appartenir à différents sous-groupes, tels que la physique du solide, la physique moléculaire ou atomique. Ils peuvent aborder le même sujet sous des angles différents, mais ils sont unis dans leur activité scientifique par un système d'attitudes, de valeurs, de motivations et de méthodes généralement acceptées par lequel leur domaine scientifique est exploré. Cette unité est une condition préalable au développement de ce domaine de la science. Selon Kuhn, les membres de la communauté scientifique peuvent se concentrer exclusivement sur les phénomènes les plus ésotériques qui les intéressent. Une fois acceptés, les paradigmes libèrent la communauté scientifique de la nécessité de restructurer ses principes de base. Ils sont relativement isolés des exigences des non-professionnels et de la vie quotidienne.

8.5. Phénoménologie d'Edmund Husserl

Le philosophe allemand Edmund Husserl (1859-1938) est devenu le fondateur de la phénoménologie, l'un des principaux courants philosophiques du XXe siècle. Le point de départ de la phénoménologie est son livre « Logical Investigations » (2 vols., 1901). Husserl est également connu comme un critique acerbe du scepticisme et du relativisme en philosophie, dont il considérait le porteur comme le soi-disant psychologisme - la croyance que tout acte cognitif est le résultat de la structure de la conscience empirique (expérience sensorielle), et ceci est associé avec l'absence de vérité, selon le sujet connaissant. Husserl croyait que les sciences de la nature et de l’histoire avaient besoin d’une certaine justification. Une telle justification ne peut être donnée que par la philosophie en tant que science stricte, en particulier la science des phénomènes de conscience - la phénoménologie.

La conscience empirique, selon Husserl, s'avère toujours déformée par la subjectivité, et doit donc être nettoyée à l'aide de la réduction, comprise comme la libération des couches subjectives humaines naturelles. Une telle réduction "correction des erreurs" donne une structure pure de l'objet de connaissance, que Husserl appelle le fruit de l'intentionnalité (lit. "être dirigé vers quelque chose"). Ainsi, Husserl, à l'aide de la rationalité, résout le principal problème qui l'inquiète : celui de la transparence du lien entre sujet et objet - grâce à l'intentionnalité. La philosophie pour Husserl commence par la découverte d'une corrélation entre les manières dont divers aspects du monde sont donnés à l'homme et la conscience du monde. Cela ouvre la possibilité d'un type particulier de recherche visant à étudier non pas le contenu substantiel de la relation humaine au monde, mais son apparition dans la conscience - un phénomène.

La recherche phénoménologique s'intéresse au phénomène d'objectivité de la conscience : l'être dépend du regard que l'on porte sur lui. Par conséquent, la caractéristique et la propriété la plus importante de la conscience est, selon Husserl, l'intentionnalité, c'est-à-dire direction de la conscience vers l'objet. Pour lui, la conscience est toujours « conscience de quelque chose ». L'intentionnalité signifie que tout phénomène d'objets dans la conscience correspond à sa propre structure intentionnelle, constituée de nombreux composants corrélés similaires. L'organisation de la méthode phénoménologique consiste précisément à étudier la structure de la conscience en liaison avec ses composantes essentielles. L'analyse de la structure est effectuée de manière réflexive. À cet égard, la phénoménologie distingue une attitude naturelle et sa propre attitude phénoménologique : dans le monde de la pensée quotidienne - une attitude naturelle - notre vie coule de manière anonyme, c'est-à-dire reste en dehors de l'expérience de la focalisation intentionnelle sur les objets. L'ascension à la structure intentionnelle de la conscience, à son activité immanente est possible grâce à la méthode de réduction phénoménologique. C'est par cette méthode que nous traitons des phénomènes authentiques. La réduction permet de se débarrasser de la naïveté du cadre naturel de la conscience, qui réside dans le fait qu'elle est centrée sur la connaissance des objets extérieurs, elle s'intéresse avant tout aux objets perçus par les sens ou par les sens. Il vous permet de basculer votre conscience vers l'étude de votre propre activité de constitution d'objets. Et seul le cadre phénoménologique, réalisé à l'aide de cette réduction, permet à la conscience de se tourner vers elle-même, donc le phénoménologue met entre parenthèses tout le monde naturel réel, qui a une signification existentielle constante.

La pureté de l'expérience phénoménologique (découverte des phénomènes « purs ») s'effectue si l'objet de l'expérience n'est pas « pollué », si l'objet est isolé dans sa forme pure, en l'absence de la tentation de voir l'objet de la connaissance dans une simple correspondance entre expérience externe et interne : « La source profonde de tous les délires naît de l'égalisation originelle apparemment évidente de la temporalité immanente et de la temporalité objectivement réelle. La temporalité immanente est inhérente à la conscience humaine en tant qu'image du temps physique extérieur. Il capture la pureté du flux d'expériences mentales pertinentes ou non.

La méthode de réduction phénoménologique a permis à Husserl de clarifier le sens de divers objets eux-mêmes - des objets inanimés à son propre « je » et « l'autre ». Ces aspects mutuellement complémentaires de l'intentionnalité sont appelés les termes « noèse » - le mode de conscience intentionnelle et « noème » - le sens objectif, un corrélat objectif, représentant la structure poétique de la conscience et sa structure noématique, c'est-à-dire la signification matérielle de l'objet.

L'un des volets de la philosophie de Husserl est la considération du stade de la méthode de la phénoménologie transcendantale. Dévoilant le contenu de ses recherches philosophiques, Husserl s'intéresse particulièrement à la méthode de recherche en relation avec les méthodes de formation du savoir philosophique et son rôle dans la compréhension du sens du monde dans son ensemble.

Husserl est également l'auteur d'un certain nombre d'ouvrages philosophiques, parmi lesquels se distingue la "Crise des sciences européennes" (les deux premières parties ont été publiées en 1936; plus tard intitulées "La crise des sciences européennes et la phénoménologie transcendantale", 1954) . Les critiques attribuent des définitions telles que l'échelle, la profondeur, etc. à ce travail. Le livre a été écrit dans des années terribles pour l'Allemagne. Husserl associe l'arrivée du fascisme à la crise de la civilisation européenne. Il s'inquiétait des origines de cette crise ; il les a vus dans le "ventre de la civilisation technogénique", dans l'incapacité de la science à donner une réponse intelligible aux défis de la situation actuelle sur le continent. Sauver le monde, à son avis, ne pouvait que faire de la philosophie. À la recherche d'une « panacée », Husserl se tourne vers l'héritage créatif de Galilée, qu'il appelle « le penseur le plus remarquable des temps modernes ». En particulier, il est attiré par l'idée de Galilée selon laquelle le livre de la nature est écrit dans le langage des mathématiques. Le sens de cet adage est que, compte tenu de l'unité des idées mathématiques et de l'empirisme, ne pas permettre leur confusion injustifiée. Le mérite de Galilée est de donner aux sciences naturelles un statut mathématique ; L'omission de Galilée est qu'il ne s'est pas tourné vers la compréhension de la procédure sémantique originelle, qui, étant l'idéalisation de tout le sol de la vie théorique et pratique, a affirmé cette procédure comme un monde sensoriel direct, d'où surgit le monde des figures géométriques idéales. . Ce qui est donné directement ne devient pas objet de réflexion. En conséquence, les idées mathématiques ont perdu leur vitalité.

Le monde de l'expérience humaine Husserl appelle le "monde sensoriel", qui est corrélatif à l'intentionnalité du sujet. Dans ce monde, toute la vie humaine se déroule. Ainsi, commençant sa philosophie par une réflexion sur le statut des concepts arithmétiques dans lesquels il entend l'appel de la vérité, Husserl porte la recherche aux exigences éthiques, dans lesquelles se cache la principale vérité de la vie.

Partie II. Philosophie de la technologie

Thème 9. Philosophie de la technologie et méthodologie des sciences techniques

9.1. Le sujet, le contenu et les objectifs de la philosophie de la technologie

Le concept de « technologie » (du grec techne - compétence, compétence, art) désigne, d'une part, un ensemble de méthodes d'activité spécialement développées ; deuxièmement, un ensemble de matériel artificiel et de moyens matériels d'activité ; troisièmement, la connaissance des méthodes et moyens d'activité ; quatrièmement, un processus d'expression de la volonté spécifique et culturellement déterminé. La philosophie de la technologie est une branche émergente de la science philosophique dont le contenu principal est une réflexion philosophique sur le phénomène technologique. Ainsi, la philosophie de la technologie se résume essentiellement à la question de l’application de la philosophie à la technologie, c’est-à-dire à la question de savoir comment les modèles théoriques, les lois à caractère universel, les méthodes, les idées accumulées par la philosophie se tournent vers la technologie comme sujet de recherche particulier.

Les origines de la philosophie de la technologie remontent aux travaux de philosophes anciens, mais la recherche philosophique systématique sur le phénomène technologique n’a commencé qu’à la fin du XIXe et au début du XXe siècle. Le terme « philosophie de la technologie » a été introduit dans l’usage scientifique par le scientifique allemand Ernest Kapp, qui a publié en 1877 le livre « Lignes de base de la philosophie de la technologie ». E. Kapp, K. Marx ont développé les caractéristiques essentielles des moyens techniques en cohérence avec l'idée d'objectivation. En Russie, les bases de la compréhension philosophique de la technologie ont été posées par N. A. Berdiaev et P. K. Engelmeyer. A. A. Bogdanov (Malinovsky) (1873-1928), dans le livre « General Organizational Science » (2 volumes ; 1913-1917), fut le premier en Russie et en Europe à considérer le problème de l'équilibre et du chaos. Pour des raisons évidentes, ses recherches se sont poursuivies en Occident. Dans notre pays, le développement intensif des problèmes philosophiques de la technologie n’a commencé que dans les années 1950-1960. Ces travaux ont été réalisés dans les principaux domaines suivants :

1) l'ontologie de la technologie associée au développement des idées de K. Marx (A. A. Zvorykin, S. V. Shukhardin, Yu. S. Meleshchenko, G. N. Volkov, etc.);

2) philosophie de l'histoire des techniques. Dans cette direction, deux versions principales ont été développées. L'un d'eux (A. A. Zvorykin, S. V. Shukhardin et d'autres) était basé sur l'application des idées fondamentales de la philosophie marxiste à l'histoire et à la technologie. Le second (GN Volkov) développe l'idée marxienne d'objectivation des fonctions du travail en relation avec les grandes étapes de l'évolution technique ;

3) la sociologie de la technologie, dans la lignée de laquelle les spécificités du développement de la technologie dans diverses conditions sociales ont été discutées (G. N. Volkov et autres);

4) futurologie technique, axée sur la prévision du progrès technique (G. N. Volkov, A. I. Cherepnev et autres);

5) l'épistémologie de la technologie dans les travaux de V. V. Cheshev, B. S. Ukraintsev, V. G. Gorohov, V. M. Figurovsky et d'autres était considérée comme une spécificité des connaissances techniques (objet, méthodologie, caractéristiques théoriques, types d'objets idéaux, paramètres de valeur).

Des tendances similaires se sont développées dans la philosophie occidentale de la technologie (F. Rapp, H. Beck et autres), la sociologie (E. Toffler, D. Bell, R. Iris et autres) et la futurologie (E. Toffler, D. Bell, G. Cann, J.P. Grant, J. Martino et autres).

Dans les travaux d'Aristote, le concept de "techne" est inclus dans la classification générale des types de connaissances. Il est tout à fait typique pour la tradition philosophique classique de comprendre les problèmes philosophiques généraux à partir de positions techniques. La philosophie s'est toujours efforcée d'aboutir à des conclusions d'ordre général, mais la construction des abstractions ultimes s'est appuyée sur une variété de matériaux fournis par divers domaines de connaissance et d'activité. Dans les travaux de Marx, nous ne parlons pas seulement des machines et de la production de machines en tant que telles, mais aussi des changements qu'elles provoquent dans la vie de la société. N. A. Berdyaev considère les éléments technogéniques de la vie, y compris la vie spirituelle. Par la suite, les principales dispositions de ses ouvrages consacrés à la technologie ont été confirmées par rapport à la situation moderne par les travaux de H. Ellul. La philosophie de la technologie a pris forme comme une direction indépendante sous l'influence des travaux de M. Heidegger, qui a cherché à découvrir l'essence de la technologie en dehors d'elle - dans l'instrumentalité en tant que telle, inhérente à l'homme dans son activité. La technique comme mode de reproduction de l'activité vivante détermine largement la formation des idéaux, et donc de la culture ; en tant qu'attitude spécifique au monde, elle s'inscrit dans le rapport de l'homme au monde dans son ensemble. Par rapport à la philosophie classique, la technologie est : a) un moyen de poser (recherche, cognition) le sujet d'un objet, et, par conséquent, un moyen de se poser comme sujet ; b) la frontière du sujet et de l'objet au sens hégélien de « l'autre des deux », qui détermine dans une certaine mesure l'interaction de l'essence. La technique détermine des options historiquement spécifiques pour résoudre des questions philosophiques éternelles.

9.2. Les principales directions et modèles de développement de la philosophie de la technologie

La principale différence entre l'homme et les animaux, l'ancien philosophe grec Anaxagoras (500-428 avant JC) a vu dans la possession de l'homme de ses propres mains. Aristote (384-322 av. J.-C.) précise ce jugement de son prédécesseur : les mains acquièrent leur statut grâce à l'esprit, qui fait de la personne aussi un animal politique. Le penseur arabe Ibn Khaldun (1332-1406) dans son livre "Mukaddimah" considérait la nature humaine comme soumise à la loi de causalité, dans laquelle une personne, grâce à la raison, au travail et à la science, acquiert des "capacités humaines". Dans le même temps, le principal outil d'une personne, en plus du cerveau, est ses mains en tant qu'outils de travail. L'ancien médecin romain Galien (vers 130 - vers 200) dans son ouvrage classique "Sur les parties du corps humain" a donné la première description anatomique et physiologique de l'ensemble de l'organisme, y compris les mains.

Dans la philosophie de la technique, en considérant les processus historiques de transformation d'une personne en travailleur (de l'Homo sapiens à l'Homo creans), deux concepts se sont développés : le concept « d'outil » de L. Noiret et le concept de « travail » de F. Engels. Considérons-les un peu plus en détail.

Le concept "gun" de la formation de l'homme dans les oeuvres de Ludwig Noiret

Ludwig Noiret (1827-1897), poursuivant les traditions d'Ibn Khaldun, A. Smith et B. Franklin, considère la capacité d'une personne à fabriquer un outil comme sa différence essentielle avec un animal. Dans ses ouvrages («L'origine du langage», 1877; «L'outil et son importance dans le développement historique de l'humanité», 1880), Noiret étaye l'idée que ce n'est qu'avec l'avènement des outils que la véritable histoire de l'humanité commence. L'outil de travail pour Noiret incarne le principe de créativité. La création et l'utilisation d'outils, selon lui, sont les principales sources du développement de la conscience humaine.

Dans les outils de travail, une personne "projette" ses propres organes, qui jusqu'à récemment agissaient instinctivement. Entre le désir, la volonté d'une personne se trouvent des outils qui servent sa volonté, ses désirs, ses besoins. Noiret propose une causalité à trois termes : entre le sujet et l'objet, l'instrument de travail médiatisant leur interaction prend sa place particulière (dans ce cas, la pensée de Noiret coïncide avec la position de Marx sur les machines comme organes du cerveau humain). Plus tard, le cerveau humain acquiert la fonction de réponse anticipatrice : il anticipe de manière spéculative la pratique, se manifestant comme une force créatrice, c'est-à-dire se développe avec les outils de travail. Cependant, nous ne pouvons pas oublier le rôle des mains humaines. Au cours de l'activité de l'outil, la main subit des changements importants, grâce auxquels elle acquiert non seulement l'universalité, mais devient également un puissant facteur de développement. Les mains agissent comme un outil spécial ("outils d'outils"), ou, selon les termes de Noiret, "un organe du cerveau externe", et deviennent un facteur de développement de l'esprit ! Simultanément, ils développent les yeux, la vision, le fonctionnement de tout le corps humain et principalement le cerveau. Noiret conclut : toute cognition objective consiste en deux actes : le mouvement, dirigé depuis le sujet et déterminé par la volonté, et la résistance objective, c'est-à-dire la résistance que l'objet oppose à ce mouvement. S'opposant au point de vue selon lequel le don d'abstraction est initialement attribué à une personne, grâce à laquelle il a pu anticiper la pensée, Noiret écrit : ", c'est à dire. Il y avait d'abord l'acte, pas le mot.

Théorie « travail » de l'anthroposociogenèse par Friedrich Engels

Le célèbre théoricien du marxisme, associé du créateur de cet enseignement, Friedrich Engels (1820-1995), publia en 1876 un ouvrage intitulé « Le rôle du travail dans le processus de transformation du singe en homme », dans lequel il élargit considérablement idées sur le rôle du travail dans la vie humaine. Le travail, selon lui, n’est pas seulement une source de richesse. Son rôle est beaucoup plus large : le travail était la raison principale et fondamentale de l'émergence de l'homme (c'est-à-dire de la transformation du singe en homme), la source de toute richesse, la condition principale de toute vie humaine. Le moment révolutionnaire dans ce processus fut l’acquisition soudaine de la marche debout : cette acquisition devint fatidique dans la vie du singe. La libération des pattes avant a modifié leurs fonctions antérieures (saisir en grimpant aux arbres, marcher au sol) et les a préparés à remplir d'autres fonctions. C'est ainsi qu'une main est apparue ! Libérée de ses fonctions antérieures, écrit Engels, la main « pouvait désormais acquérir de plus en plus de nouvelles compétences, et la plus grande flexibilité acquise était transmise et augmentée de génération en génération ». L'une des conséquences les plus significatives de cette évolution a été l'acquisition de compétences dans la fabrication d'outils et leur utilisation. La main humaine s'avère être non seulement un organe du toucher, mais aussi un organe de travail, un instrument de tous les outils. Le travail amène cet organe humain à une telle perfection que des perfections telles que la musique de Paganini et les peintures de Raphaël lui deviennent accessibles. Mais la main n’est qu’un membre d’un organisme humain très complexe, donc tout ce qui a profité à la main a profité au corps tout entier. Cependant, il y avait une autre circonstance qui a contribué de manière significative à la « marche » d'une personne vers les transformations attendues. Il possédait un troupeau très développé, c'est-à-dire social, instinctif. Et avec cela, comme l'écrit Engels, il y a l'éveil et le développement du besoin de se dire quelque chose. Mais une personne ne pouvait parler qu'avec l'amélioration progressive de son larynx, si nécessaire pour prononcer des sons articulés.

Ainsi, trois grandes acquisitions : une démarche droite, qui a ouvert une plus grande portée pour une personne à voir ; membres antérieurs qui pourraient être utilisés à des fins complètement différentes ; l'évolution du larynx, un organe si important pour prononcer les sons et communiquer des signaux aux proches, a conduit à des transformations qualitatives de l'organe de la pensée - le cerveau, les organes sensoriels. Engels écrit également sur la présence d'un facteur d'influence inverse de ces acquisitions, qui a complété l'évolution biologique des singes anthropoïdes. Les conséquences sociales de cette évolution biologique, la transformation d'un singe en homme, l'auteur les retrouve dans la transformation de la chasse en agriculture, l'acquisition d'une vie sédentaire, des compétences dans la transformation de la nature, de l'habitat, de la métallurgie, etc. Ensuite, il y a la science, la culture, la civilisation. L'homme n'est donc pas limité à une influence passive involontaire sur la nature, il change activement la nature, l'adaptant consciemment à ses besoins. Et il le doit à son travail. L'homme est donc assimilé à un animal technique.

9.3. Les grandes étapes et les conséquences sociales du développement de la technologie

Une personne vit dans un environnement technique créé par elle. En créant cette "seconde nature" de sa demeure, l'homme se crée lui-même. Ce principe autocréateur, selon Ferdinand Lassalle (1825-1864), est ce qu'il y a de plus profond chez l'homme. Pour l'étude de la philosophie de la technologie, une telle caractéristique d'une personne a une signification fondamentale. Cela signifie que la techno-créativité est inhérente à l'homme dès le début.

Le fondateur de la philosophie russe de la technologie, PK Engelmeyer, a interprété la technologie comme "la capacité d'agir rapidement sur la matière" ; « l'art d'évoquer des phénomènes désirables » ; des actions qui incarnent une idée, un plan ; comme "véritable art". Karl Jaspers considérait la technologie comme un moyen de libérer l'homme du pouvoir de la nature, d'accroître la domination de l'homme sur elle, en utilisant la nature contre la nature elle-même.

La première étape du développement de la technologie est caractérisée par le hasard (comme l'a écrit J. Ortega y Gasset, c'est la «technique du hasard»): les outils n'ont pas été spécialement inventés, les découvertes n'étaient pas intentionnelles. Ainsi, par exemple, un fragment de coquille d'œuf pourrait remplacer les paumes pour étancher la soif ; une pierre attachée à un bâton pourrait augmenter la force de l'impact, etc. Imitant ces "rationalisations" accidentelles, l'homme a créé délibérément des outils de travail. Ludwig Noiret identifie trois circonstances dans ce processus. Premièrement, l'instrument primitif servait à compléter l'activité physiologique. Deuxièmement, les outils ont été créés par essais et erreurs : ils ont plutôt trouvé une personne que l'inverse. Troisièmement, en raison de la simplicité et de la rareté, la technologie primitive était largement disponible : tout le monde pouvait faire du feu, fabriquer des arcs et des flèches, etc. La technique ne se démarque pas de toutes sortes d'activités. La division naturelle du travail technique n'existait que sur la base des différences d'âge et de sexe. L'homme, écrit J. Ortega y Gasset, "... ne se sent pas encore comme un Homo faber", la technologie pour lui fait partie de la nature.

La deuxième étape du développement de la technologie se caractérise par certaines de ses complications. La production d'outils nécessite désormais des compétences suffisamment importantes, à propos desquelles il y a une séparation de la population générale des artisans - experts dans les "secrets" de la fabrication d'outils. Il existe une couche sociale dans la société, selon Marx - les forces motrices du progrès technique. En même temps, le progrès technique lui-même ne reposait pas sur la science, ni sur des calculs théoriques, mais sur une compétence souvent héritée (de père en fils) de manière empirique, par essais et erreurs. Le progrès technologique a été impulsé par des artisans brillants comme Archimède, qui combinaient idéalement les talents techniques avec ceux de la pratique. Cette étape du développement de la technologie se termine avec l'avènement du New Age et, par conséquent, avec le début de l'ère dite de la technologie des machines. Cette époque est entrée dans l'histoire sous le nom de Renaissance (Renaissance).

Un trait caractéristique de la Renaissance est la réhabilitation du rôle du savoir expérimental, dont le symbole est l'œuvre des grands Léonard de Vinci (1452-1519). Son dicton « La science est le capitaine et la pratique sont les soldats » est devenu une sorte de slogan de la nouvelle ère. À cette époque, l’Église régnait encore sur l’âme et l’esprit des gens, et le scientifique devait se défendre. En particulier, Léonard a écrit ses œuvres dans l'ordre inverse, dans une image miroir, afin que personne d'autre que lui ne puisse les lire. La mise en pratique de ses idées était difficile. Il a également été persécuté par l'Église. Galilée (voir également rubrique 2.2). Son laboratoire a été rasé, l'enseignement a été interdit et lui-même est mort dans la pauvreté. Galilée a apporté un principe mathématique au fondement de la science, a introduit une expérience de pensée basée sur l'induction rationnelle et a jeté les bases de la science de la nature. Il est devenu le fondateur des sciences naturelles scientifiques, a fondé le principe de la pensée européenne moderne et a contribué à l'oubli du principe de l'anthropocentrisme. Ses travaux "On Motion", "Conversations and Mathematical Proofs" ont longtemps servi de méthodologie scientifique. D'un point de vue philosophique, les savoirs expérimentaux et toute activité humaine pratique ont été réhabilités par l'un des fondateurs de la philosophie des temps modernes Francis Bacon (voir également rubrique 2.2). Il y consacre son œuvre principale, Le Nouvel Organon (1620).

Bacon a divisé le processus de la cognition en un certain nombre de composants : l'objet de la cognition ; la tâche de la connaissance; le but de la connaissance; méthode de connaissance. Il a déclaré que l'induction était le chemin principal et le plus court vers la connaissance. La tâche de la science, selon Bacon, est l'expérience, son étude sur la base d'un appel aux possibilités de la méthode déductive, cependant, après la première, les axiomes initiaux sont dérivés de l'expérience par induction. Bacon a fortement exigé que la théorie et la pratique soient unies par des liens plus forts. Il croyait que trois grandes découvertes qui n'étaient pas connues des anciens, à savoir l'art de l'imprimerie, l'utilisation de la poudre à canon et l'aiguille nautique (c'est-à-dire la boussole), ont changé le visage et l'état du monde entier. Ils ont contribué à la cause de l'éducation, des affaires militaires et de la navigation. L'idée fondamentale de l'enseignement de Bacon est que la science doit donner à l'homme le pouvoir sur la nature, accroître son pouvoir et améliorer la vie. La raison des illusions de l'esprit, le philosophe considérait les idées fausses, qu'il appelait «fantômes» ou «idoles». Il a distingué quatre types de tels fantômes :

1) les fantômes du genre sont des reflets déformés de toutes les choses qui existent en raison du fait qu'une personne mélange sa propre nature avec eux;

2) les fantômes de la grotte - ils découlent des caractéristiques individuelles du sujet de la connaissance ;

3) les fantômes du marché sont des délires résultant d'un abus de mots ;

4) les fantômes du théâtre - de faux enseignements qui attirent une personne comme de magnifiques représentations théâtrales.

Le vrai scientifique prend exemple sur l'abeille, qui extrait le jus des fleurs du jardin et des champs et le transforme en miel avec sa propre habileté. L'analyse de la nature par Bacon s'est déroulée selon deux lignes qui se croisent. D'abord, se référant à Démocrite en quête de principes et à l'origine de la matière, il cherchait une structure atomistique dans les choses. Deuxièmement, il cherchait la loi de formation des formes d'existence de la matière (configuration, mouvement). Il croyait que "... le corps est mouvement, distribution, difficulté, sa propriété inhérente". Bacon a exposé ses opinions sociales dans "Experiences" et "New Atlantis", dans lesquelles il a défendu les idées de la libre entreprise. La classification des sciences proposée par le philosophe a été acceptée par les encyclopédistes français.

Un autre fondateur de la philosophie et de la science des temps modernes était le représentant du rationalisme classique René Descartes (voir également rubrique 2.2). Dans ses ouvrages "Discours sur la méthode", "Principes de philosophie", il agit comme l'un des fondateurs de la "nouvelle" philosophie et de la "nouvelle" science, proposant de réviser toutes les anciennes traditions philosophiques. Descartes a complété le concept de Bacon de la nécessité de réduire la recherche philosophique à l'expérience et à l'observation avec une proposition de fonder la pensée philosophique sur les principes de preuve, de certitude et d'identité. Formes traditionnelles d'acquisition du savoir Descartes s'oppose au savoir fondé sur le principe du doute. La connaissance scientifique dans son interprétation n'apparaissait pas comme un accident, mais comme un seul système fiable. Il considérait le principe du cogito ergo sum (je pense, donc je suis) comme absolument certain. Cet argument, qui remonte au platonisme, porte sa conviction dans la supériorité ontologique de l'intelligible sur l'expérience sensible. Cependant, il a néanmoins « laissé » l'établissement final de la vérité à Dieu. A la suite de Bacon, Descartes croyait qu'on ne peut devenir maître de la nature qu'en l'écoutant.

La contribution de Descartes à la science est énorme. En mathématiques, il fut l'un des créateurs de la géométrie analytique, dans laquelle il possédait un nouveau concept de fonction ; a développé une manière analytique d'exprimer des objets géométriques et leurs relations à travers les équations de l'algèbre. Les équations algébriques modernes doivent en grande partie leur origine à Descartes. En mécanique, il développe les principes de relativité du mouvement et du repos, de l'action et de la réaction ; en optique, il a étayé la loi d'un rapport constant des sinus lors de la réfraction de la lumière, développé la théorie mathématique de l'arc-en-ciel et découvert la cause de son apparition; développé l'idée du développement naturel du système solaire, en raison des propriétés de la matière et du mouvement de ses parties hétérogènes. Parmi les questions philosophiques développées par Descartes, les questions sur la tâche et le mode de cognition étaient d'une importance primordiale.

Dans la connaissance de la nature et de ses lois, il fit des progrès significatifs Isaac Newton (1643-1727), qui devint le successeur et le combattant pour l'approbation finale des traditions galiléennes en science. Le fondateur de la mécanique classique et céleste, le créateur du système de calcul différentiel et intégral, l'auteur de l'étude "Principes mathématiques de la philosophie naturelle", il a formulé les lois et les concepts de la mécanique classique, la loi de la gravitation universelle, théoriquement étayée Les lois de Kepler, théorie scientifique de type déductif. La thèse formulée par lui "Je n'invente pas d'hypothèses" a constitué la base de la critique de la philosophie naturelle. Avec ses travaux, Newton a jeté les bases d'une image mécaniste du monde et d'une vision mécaniste du monde. Dans l'ouvrage "Principes mathématiques de la philosophie naturelle", il écrit: "Il serait souhaitable de dériver des principes de la mécanique et d'autres phénomènes de la nature." Newton a proposé des idées sur l'existence indépendante de la matière, de l'espace et du temps, qui ont manifesté sa façon métaphysique de penser. Il a essayé de combler les lacunes de l'explication mécaniste du monde par la médiation de Dieu. Newton n'était pas un scientifique de salon. Dans ses études de philosophie naturelle, il a cherché à résoudre certains problèmes pratiques. À cet égard, il est intéressant de noter qu'il a fait un certain nombre de ses découvertes scientifiques précisément dans le cadre de la résolution de problèmes similaires, par exemple dans le domaine de la construction navale et de l'hydromécanique.

Les travaux sur la mécanique de l'ancien contemporain de Newton étaient largement connus à cette époque. Christian Huygens (1629-1695), l'inventeur d'une horloge à pendule à mécanisme de mise en marche, ainsi que l'auteur de plusieurs ouvrages sur la théorie d'un pendule mécanique, même si, notons-le, à cette époque il n'était pas encore possible de parler sur la création de sciences techniques séparées. L'invention a joué un rôle important dans la transition vers la technologie des machines. James Watt (1736-1819) la première machine à vapeur au monde. L'Europe entrait dans l'ère de la production mécanique. Cette période a été marquée, comme l'écrit Marx, par la transformation des moyens de production d'outil en machine. "En tant que machine, les moyens de travail acquièrent une telle forme matérielle d'existence qui provoque le remplacement du pouvoir humain par les forces de la nature et les méthodes de routine empiriques - par l'application consciente des sciences naturelles" (Marx. Capital. Vol. 1) . Marx a vu l'aspect négatif de ce processus dans le fait que la machine est entrée en concurrence avec les ouvriers, qui ont été soumis à des licenciements et des licenciements comme incapables de résister à la concurrence avec elle. Ainsi, la tendance à détruire les machines (luddisme) a été générée. A la fin du XVIII - début du XIX siècle. les premières protestations spontanées contre l'utilisation des machines pendant la révolution industrielle en Grande-Bretagne ont été enregistrées.

La demande d'activités d'ingénierie a augmenté, qui auparavant pouvait encore se contenter d'offres aléatoires. Désormais, l'époque exigeait la formation massive d'ingénieurs et de spécialistes techniques. En 1746, une école polytechnique est ouverte à Paris avec une nouvelle organisation du processus éducatif, associant formation théorique et formation technique. Plus tard, de telles universités, fonctionnant sur une nouvelle base d'éducation - sur la base des sciences naturelles théoriques et appliquées, sont ouvertes aux États-Unis et dans de nombreux pays européens.

9.4. Les principales directions de la formation de la philosophie de la technologie

Pour la première fois, l'idée de créer une philosophie de la technologie, plus précisément une philosophie de la mécanique, a été exprimée par le chimiste et physicien anglais Robert Boyle (1627-1691). Dans son livre "Mechanical Qualities" (1675), il a tenté de formuler un concept philosophique mécaniste, faisant de la mécanique la base de tout ce qui existe. Une autre idée circulait aussi : l'idée de créer une philosophie de l'industrie appartenait à l'économiste allemand Johann Beckmann (1739-1811). En Écosse, le livre de l'économiste et ingénieur Andrew Ure (1778-1857) "The Philosophy of Manufactories" (1835) a été publié, dans lequel l'auteur a examiné certains aspects philosophiques de la production manufacturière. Comme on peut le voir, la pensée philosophique européenne est passée très près de créer une véritable philosophie scientifique de la technologie. Et pourtant, en Occident, le philosophe allemand Ernest Kapp est considéré comme le véritable fondateur de cette discipline scientifique. Considérons son concept plus en détail.

Les principales dispositions de la philosophie de la technologie Ernest Kapp

Ernest Capp (1808-1896) est connu comme l’un des penseurs profonds dans le domaine de la philosophie de la technologie. Il a combiné le concept géographique de la philosophie de Karl Ritter avec la philosophie de Karl Marx, après avoir « transformé » l'idéalisme hégélien en matérialisme. Le résultat fut un ouvrage solide, « Géographie générale et comparée ». Le processus historique décrit dans son livre est présenté comme le résultat d'une interaction active entre l'homme et son environnement. Grâce à cette interaction au fil des siècles, l'homme acquiert la capacité de répondre de manière adéquate aux défis de la nature et de surmonter sa dépendance à son égard. Ayant appris de Ludwig Feuerbach (1804-1872) son approche anthropologique de la nature et de l'homme, Kapp expose ses observations dans son livre suivant, « Despotisme légalisé et libertés constitutionnelles », qui provoque une violente indignation parmi les autorités allemandes. Un procès a eu lieu, l'auteur a été accusé de diffamation et expulsé du pays. Il partagea le sort de K. Marx, à la différence qu'il ne partit pas pour l'Angleterre, mais pour la lointaine Amérique. Il s'installe là-bas, parmi les siens, dans la colonie allemande du Texas, où il vécut vingt longues années comme agriculteur, mêlant travail physique et travail mental : il poursuit les recherches commencées en Allemagne. Le travail sur terre lui a donné l'opportunité pratique de comprendre philosophiquement le lien entre l'homme et le sujet du travail à travers les outils de travail. Ces observations ont été incarnées dans son nouveau livre, « Fondements de la philosophie de la technologie », qu'il a publié à son retour en Allemagne. Le public lecteur a vu dans cet ouvrage scientifique des traces évidentes de l'influence du concept anthropologique de Feuerbach. La connexion avec ce concept a permis à l'auteur d'examiner de plus près l'essence de la connexion des mains humaines (anthropologie) avec les outils - le point de départ d'une réflexion philosophique sur la technologie et son essence. Arrivé chez lui « en congé », il resta désormais pour toujours en Allemagne, son état de santé ne lui permettant pas d'entreprendre le long voyage de retour. Et le sujet de ses recherches absorbait pleinement sa vie quotidienne.

Inspiré par les idées de l'ancien grec Protagoras selon lesquelles l'homme est la mesure de toutes choses, Kapp est devenu fasciné par la connexion secrète du corps humain, des mains avec l'activité du cerveau. S'éloignant du "je" hégélien, il concentre son attention sur l'ensemble de l'organisme corporel - sur ses liens les plus étroits avec le "je", qui n'est en relation qu'avec la corporéité et réalise le processus de pensée ; complice, pense, existe. En même temps, la psychologie et la physiologie se confondent. Et ce processus, comme le note à juste titre Kapp, se déroule dans le domaine de l'environnement artificiel créé par l'homme : « Ce qui est en dehors de l'homme consiste en des créations de la nature et de l'homme.

L'homme n'est pas satisfait de ce que la nature lui a donné. Il est auto-créatif. Il "réforme" l'environnement au nom de son essence, comme si la nature, en le créant, n'avait pas tout prévu en s'appuyant précisément sur cette auto-création : "tu le finiras toi-même", en projetant ta vision vers l'extérieur. Kapp écrit : « Le monde extérieur du travail mécanique émanant de l'homme ne peut être compris que comme une véritable continuation de l'organisme, comme un transfert hors du monde intérieur des idées. Kapp comprend le "monde intérieur" comme le corps humain. De là découle la conclusion que l'externe est une continuation du corps humain, plus précisément, une imitation mécanique de ses divers organes. C'est précisément en quoi consiste son concept, appelé organoprojection. Kapp souligne : « Tous les moyens de culture, qu'ils soient grossièrement matériels ou de construction la plus subtile, ne sont que des projections d'organes.

Ainsi, Ernest Kapp a développé une image holistique de la projection d'organes, où il justifie et formule minutieusement ce concept comme principe principal de l'activité technique humaine et de toute sa créativité culturelle dans son ensemble. Parmi les organes humains, Kapp accorde une place particulière à la main. Il a un triple objectif : premièrement, c'est un outil naturel ; deuxièmement, il sert de modèle aux outils mécaniques et, troisièmement, il joue un rôle majeur dans la fabrication d'imitateurs de matériaux, c'est-à-dire est un "outil d'outils". C'est à partir de cet outil naturel que surgissent les outils artificiels : le marteau dans le prolongement du poing, le gobelet à la place de la paume, etc. Dans le concept de projection d'orgue, il y avait aussi une place pour la ressemblance des yeux humains, à commencer par une loupe, des instruments d'optique ; la technologie acoustique est devenue comme un organe de l'ouïe, par exemple un échosondeur qui capte le bruit des hélices d'un sous-marin qui approche, etc. Mais la main humaine se distingue parmi tous ces organes : c'est, selon Kapp, « l'organe de tous les organes ».

En décrivant le concept de projection d'organe, trois caractéristiques importantes sont distinguées[21] . Premièrement, de par sa nature, la projection d'organes est un processus de découverte de soi continue, principalement inconsciente, dont les actes individuels ne sont pas soumis à un processus simultané de prise de conscience. Deuxièmement, elle est nécessaire, car le lien entre la fonction mécanique et cette formation organique est strictement prédéterminé. C'est ainsi qu'une loupe et un œil humain, une pompe et un cœur, une pipe et une gorge, un outil à main et une main, etc. se « reconnaissent » l'un dans l'autre. Une telle connexion dans la technologie est utilisée de la manière la plus diverse dans un transfert conscient au-delà des limites de la relation d'origine. Troisièmement, dans son riche contenu, la projection d'organes est réalisée comme un processus d'interaction active entre des outils naturels (tous les organes humains) et des outils artificiels, au cours desquels ils s'améliorent mutuellement. "Dans le processus d'interaction", écrit Kapp, "l'outil a soutenu le développement de l'organe naturel, et dans ce dernier, à son tour, l'atteinte d'un degré plus élevé de dextérité, a conduit à l'amélioration et au développement de l'outil" (cité par : Al-Ani N.M. Décret op.).

Une personne fait de son corps une "échelle" pour la nature et dès sa jeunesse s'habitue à utiliser cette mesure. Par exemple, cinq doigts de la main, dix doigts des deux mains donnent respectivement les systèmes cinq et décimal. Les observations et les conclusions d'Ernest Kapp sont confirmées par les études d'autres auteurs. En particulier, Yu. R. Mayer (1814-1878), G.L.F. Helmholtz (1821-1894) ont fait des comparaisons entre une machine et une personne, soulignant leurs similitudes.

Technologie et praxéologie comme philosophie de l'action par Alfred Espinas

Sociologue français, auteur du livre "L'origine de la technologie" (1890) Alfred Espinas (1844-1922) s'inquiétait du manque de "philosophie de l'action" dans le système de la connaissance philosophique. Espinas pourrait se considérer comme un étudiant ou un adepte de la philosophie de la projection d'orgue. Il n'avait aucune objection aux enseignements déjà bien connus d'Ernest Kapp en Europe. En témoigne son dicton : « L'outil est un tout avec l'ouvrier ; il est une continuation de l'organe, sa projection à l'extérieur. Espinas est entièrement d'accord avec Kapp sur le fait que la projection d'organes était à l'origine inconsciente. Il voit ses manifestations dans les mesures grecques de longueur : doigt, paume, envergure, pied, coude - pour Espinas, ils ont une origine divine, un don de Dieu. La médecine, avant de devenir laïque, a aussi parcouru un long chemin d'existence sous l'égide de la religion. La maladie était considérée comme une punition de Dieu et, par conséquent, la médecine était pratiquée dans les temples en tant que branche de l'art. Les épidémies étaient considérées comme une manifestation de la colère de Dieu et les malades étaient traités avec des rituels. La situation ne change radicalement que grâce aux activités d'Hippocrate, lorsque les maladies ont commencé à être expliquées par des causes naturelles.

Espinas considère une personne comme le produit d'une projection psychologique et sociologique qui la personnifie. Les arts appliqués ne sont pas hérités avec les caractéristiques du corps. Fruit de l'expérience et de la réflexion, elles sont « inculquées » à l'individu par « l'exemple et l'éducation » ; elles donnent ainsi naissance à la science. C'est ce processus de transfert de compétences que l'auteur appelle le sujet de la technologie.

Espinas introduit les concepts de praxéologie (du grec praktikos - actif) et de technologie (du grec techne - art, compétence, capacité et logos - mot, enseignement). La première, selon lui, reflète les manifestations collectives de la volonté, réfléchies et arbitraires, les formes les plus générales de l'action. Quant à la technologie, il réfère ce concept aux « arts de la maturité » qui donnent naissance à la science et « génèrent la technologie ». Espinas voit trois caractéristiques essentielles de la technologie, qui doivent être considérées sous trois angles. Premièrement, il est censé produire une description analytique du phénomène, en tenant compte des conditions spécifiques de son existence (temps, lieu, société). Deuxièmement, les régularités, les conditions, les causes qui ont précédé le phénomène doivent être étudiées d'un point de vue dynamique. Troisièmement, il faut appliquer une combinaison de points de vue statiques et dynamiques, qui permettent d'étudier le phénomène dans le temps : sa naissance, son apogée et son déclin, qui constituent le rythme de son existence. La combinaison de ces trois dimensions forme une technologie commune.

La philosophie de la technologie P. K. Engelmeyer : la technologie comme "véritable créativité"

Le fils d'un noble russe d'origine allemande, Pyotr Klimentievich Engelmeyer (1855-1941), était également un adepte des traditions d'Ernest Kapp. Ses études en philosophie de la technologie sont devenues célèbres après la publication de plusieurs articles dans des publications allemandes, et il a acquis une réelle popularité après avoir présenté un rapport au IVe Congrès international de philosophie, tenu à Bologne en 1911. La thèse principale de son rapport était que la philosophie de la technologie doit avoir le droit d'exister. En Russie en 1912-1913. plusieurs de ses travaux paraissent dans des éditions séparées sous le titre général "Philosophie de la technologie". Un aperçu historique du développement de la philosophie de la technologie dans l'interprétation d'Engelmeyer est devenu possible grâce aux travaux de B. Franklin, E. Hartig, F. Relo, L. Noiret, J. Cuvier, C. Linnaeus, M. Muller , F. Engels, K. Marx et autres prédécesseurs. Tenant compte des réalisations de la pensée scientifique européenne, P. K. Engelmeyer a constamment exposé ses vues sur la philosophie de la technologie et son sujet. En général, ils peuvent être réduits à ce qui suit.

1. L'expérience et l'observation sont la source de notre connaissance de la nature et servent donc de preuve de la vérité des lois de la science.

2. L'expérience et les observations de l'utilisation de la technologie pour lutter contre la nature montrent que la nature doit être vaincue par la nature.

3. Si sans technologie une personne est perdue, alors sans science il n'y a pas de technologie.

4. La définition de l'homme comme « animal pensant » (J. Cuvier et C. Linnaeus) doit être précisée, compte tenu de la position que l'esprit humain a développée parallèlement au développement du langage et des outils (L. Noiret et M. Muller).

5. La capacité de l'homme à créer des outils réside dans sa nature même, dans sa nature créatrice.

6. La science naît de la pratique, c'est-à-dire techniques, les besoins de la vie quotidienne.

Cette dernière position a été confirmée à plusieurs reprises par la pratique. Ainsi, par exemple, les Égyptiens sont venus à l'invention de la géométrie à partir de la nécessité d'arpenter les terres après chaque crue du Nil, l'alchimie s'est transformée en chimie, l'astronomie s'est formée à partir de l'astrologie, etc.

Engelmeyer a évalué positivement la théorie pragmatique du physicien et philosophe autrichien Ernest Mach (1838-1916), qui limite l'anthropomorphisme de la technique. Selon Mach, une personne construit parfois une pensée basée non pas sur le principe de l'anthropomorphisme, mais sur une analogie technique. Selon Engelmeyer, cette disposition n'annule pas les idées de Kapp, mais les complète seulement. Mais le principe d'économie de pensée, formulé par Mach, existe, et il faut s'en souvenir pour ne pas réinventer la roue une fois de plus. Le principe d'économie de pensée est le plus important dans la théorie de la connaissance de Mach ; c'est là que son pragmatisme se manifeste. La vie elle-même dicte les connaissances nécessaires à la technologie et fixe des objectifs. Pour la vie, seules ces connaissances ont de la valeur, ce qui conduit à des résultats pratiques. Essentiellement, le pragmatisme est le pont qui mène à la philosophie de la technologie. Ainsi, la philosophie de la technologie ne peut pas rester "tournée" vers la vie, elle doit aider à construire la vie.

Enegelmeyer, considérant la question de l'essence de la technologie, construit une ligne de démarcation entre la science et la technologie. Lorsqu'on lui demande quelle est la différence entre eux, il répond comme suit : la science poursuit la vérité, la technologie cherche à en tirer profit. Le technicien vient quand le scientifique a déjà dit ce qu'est la vérité : la science sait, et la technologie sait. Bien que, bien sûr, cela ne signifie pas la fin de leur relation. Engelmeyer construit un ensemble d'exigences pour la technologie, auxquelles elle doit se conformer, étant le fondement de la culture. Se prononçant en faveur de l'existence dans la société de gens à l'esprit « technique », il écrit : « Le canon sert également à celui qui le possède ; l'imprimerie publie indifféremment l'Evangile et le pamphlet obscurantiste ; entre les mains de qui la machine fonctionne." Selon lui, la technologie devrait avoir un sens des responsabilités basé sur la "formule de la volonté", dont les composantes sont "Vérité, Beauté, Bonté, Bénéfice". Et quelque part en marge - la volonté "diabolique": "Lies, Ugliness, Evil and Harm"; cela va capturer la Russie.

Tout le chemin de vie d'Engelmeyer était lié à la Russie. Après la Révolution d'Octobre, il n'accepta l'offre d'émigrer vers l'Ouest qu'au début des années 1930. fait de grands efforts pour diffuser les connaissances techniques, a joué un rôle décisif dans la création du Musée polytechnique de Moscou. Il a été l'initiateur de nombreuses publications et s'est activement publié. Cependant, avec le durcissement du régime soviétique et la montée de la répression, il fallait penser à la survie. Les cours sur le développement des problèmes philosophiques de la technologie Engelmeyer se sont arrêtés. Pendant quelque temps, quelque part près de Moscou, il élevait des chevaux. En 1941, peu remarqué, il meurt tranquillement dans son appartement de Moscou. Sous la domination de la philosophie marxiste-léniniste, il n'y avait pas de place pour la philosophie de la science et de la technologie.

La technique comme moyen de "vérité" et comme moyen de révéler le "caché" (M. Heidegger)

Dans Être et Temps, Martin Heidegger soulève la question du sens de l'être, qu'il considère comme « oublié » dans la philosophie européenne. Puisque "l'être" pour une personne est un phénomène temporaire, il y a une tendance en philosophie à reléguer ce phénomène dans l'oubli. Mais pour l'homme, "l'être" est un phénomène qui se répète éternellement et qui a donc toujours son actualité. Au niveau personnel, l'expérience du fait de la temporalité d'être pour un individu est très pesante, accompagnée de peur, d'une compréhension de sa temporalité, de son unicité, de son unicité et de sa mortalité. Heidegger se consacre à l'étude de ce phénomène. Le passé de la culture avec le présent, selon Heidegger, est relié par un langage qui demande à être « réanimé » : il a souffert de la technisation, est devenu en grande partie « mort ». Le langage du passé vit dans la culture, la littérature, l'art, l'architecture et enfin la technologie, restant un dépositaire, une demeure de « l'être ». Ces problèmes (vivre la temporalité de l'être, le destin du langage dans l'histoire, etc.) ont été élucidés dans son livre Sur la question de la technologie (1954). La base de ce travail était le matériel des conférences qu'il a données à l'École technique supérieure de Munich. Précisant le sens étymologique du concept de "technologie", Heidegger attire l'attention sur le fait qu'il est interprété comme un "moyen pour atteindre des objectifs", ou, en d'autres termes, comme une "activité humaine connue". Reconnaissant la justesse de ces définitions, Heidegger note en même temps que la justesse d'une définition ne signifie pas encore sa vérité. La tâche de la philosophie de la technologie est de chercher la véritable définition. Et la vérité se cache dans la question "qu'est-ce qu'un outil ?". A la recherche d'une réponse à cette question, l'auteur arrive à la conclusion que tout dépend de ce que nous voulons dire exactement quand nous disons "outil". Derrière cette définition, il voit la causalité, la causalité. Heidegger rappelle la tradition, qui remonte à Aristote, pour distinguer quatre types de causalité en philosophie :

1) la cause matérielle (causa materialis), elle indique les sources d'artefacts, par exemple, comme un bol en argent pour le sacrifice ;

2) une raison formelle (causa formalis), elle se manifeste lorsque, par exemple, l'argent prend une forme esthétique ;

3) la cause finale (causa finalis), lorsque la mise en forme satisfait le but ;

4) cause productrice (causa efficiens), c'est-à-dire création d'un produit fini.

Sur la base de cette analyse, Heidegger conclut que l'essence de la technologie comme moyen ne peut être révélée qu'en réduisant l'instrumentalité à ces quatre aspects de la causalité. Ces raisons, dans sa compréhension, prennent le signe de la culpabilité ("coupable de quelque chose"), et elles sont toutes liées par un "sentiment de culpabilité". Ils sont "coupables" de l'apparence d'une chose, en particulier - un bol en argent. La culpabilité peut également agir comme une raison (dans ce cas, quatre raisons). Et ce passage de l'état de non-existence à l'état de présence, il l'appelle « production ». Au sens le plus élevé, l'œuvre est poiesis, c'est-à-dire artisanat plus art. Un tel processus de création représente toujours la révélation du caché, qui se transforme en dévoilement, en ouverture. Les Grecs appelaient cette transition le mot "alateia", les Romains - veritas. Ainsi, en dernière analyse, la technologie s'avère à la fois une forme et une méthode pour révéler le caché, pour faire sortir le réel du caché.

Heidegger place le mot technè à côté du mot épistémè (connaissance) : tous deux servent à révéler le secret, et la technè est donc une sorte de « création de la vérité ». Ces deux concepts sont synonymes de connaissance, ils aident une personne à naviguer dans le labyrinthe des concepts, à comprendre, à révéler le caché, ce qui n'a pas encore été remarqué. La dissimulation n'est pas indifférente, elle intrigue une personne, la défie constamment, donne des signaux, flirte... Et cette intrigue incite une personne à faire attention, à viser, à se fixer une tâche, ce que Heidegger appelle « mise en place » (Gestell). Comme Platon, il utilise le mot insolite, distinctif pour désigner ce phénomène. Par la méthode de présentation, il sort le réel de l'état de dissimulation et le transfère dans un autre état : « l'être-présent ». Le concept de « postav » est pour lui très vaste. Il a quatre significations. Premièrement, c'est un synonyme figuré du mot « devenir », c'est-à-dire où tout commence. Deuxièmement, cela signifie déterminer l’itinéraire vers celui qui est caché. Troisièmement, le caché, comme la vérité, est dans une « relation intime » avec le concept de liberté, c'est-à-dire la libération de l'état d'ignorance. Quatrièmement, le chemin vers cette liberté est toujours semé de risques, de dangers (Gefahr). Parlant de danger, l'auteur veut dire qu'une personne ne sait pas tout, il reste toujours un « secret de l'essence ». La voix d’une vérité antérieure peut être étouffée par l’euphorie de la découverte. La connaissance du « réellement existant » est encore en avance. Heidegger conclut : « Plus nous nous rapprochons du danger, plus le chemin du salut commence à briller ! »

Thème 10. Direction sociale et humanitaire dans la philosophie de la technologie

10.1. Fondation de la direction humanitaire dans la philosophie de la technologie

Le leader reconnu dans l'étude des aspects sociaux du progrès technologique est Karl Marx (1818-1883). H. Stork, Gunter Ropol, Hans Lenk ont ​​écrit à ce sujet, consacrant des chapitres entiers de leurs ouvrages à l'analyse des vues de Marx. En particulier, H. Stork appelle Marx un pionnier dans la formation de la philosophie de la technologie en tant que direction spéciale[22] . Un philosophe influent de la technologie s'appelle Marx et le philosophe allemand moderne Hans Lenk[23].

Dans le cinquième chapitre du « Capital », Marx procède à une analyse approfondie du travail humain, puisque c'est lui qui est « consommé » (c'est-à-dire qui a une valeur d'usage), et les moyens techniques ne sont que son conducteur. Bien que Marx ait soutenu les travaux de son ami F. Engels sur le rôle du travail dans le processus de développement humain, ses sympathies étaient toujours du côté de l'organoprojection d'E. Kapp. La vérité lui était plus chère ! Marx écrivait : "L'objet qu'une personne maîtrise directement... n'est pas un objet de travail, mais un moyen de travail. Ainsi, donné par la nature elle-même, il devient un organe de son activité, un organe qu'il rattache aux organes de son corps, allongeant ainsi, contrairement à la Bible, les dimensions naturelles de celui-ci". Pour Marx, les outils de travail sont "le pouvoir matérialisé de la connaissance"[24] .

Le remplacement du travail manuel par la machine a conduit à une transformation révolutionnaire du processus de travail. Marx a défini la nature de l'ère nouvelle à travers le progrès des moyens de travail, qui ne sont pas seulement une mesure du développement de la force de travail, mais aussi un indicateur des rapports sociaux eux-mêmes. Les conséquences de la révolution dans le développement des moyens de travail, qui ont conduit au déplacement du travail manuel et au licenciement massif conséquent de ceux qui ont été remplacés par la machine, Marx les examine en détail dans le huitième chapitre du Capital. Lors de la transition de la technologie artisanale à la technologie des machines, l'outil nain du corps humain, l'énergie musculaire a été remplacée par les forces de la nature et les connaissances traditionnelles utilisées dans le processus de travail manuel ont été remplacées par des connaissances en sciences naturelles des sciences exactes. Le travail industriel remplace le travail artisanal, la machine devient ainsi l'ennemi naturel de l'artisan. Le travail "mort" (machine) domine complètement le travail "vivant" et lui fait concurrence avec succès, ce qui en fait un appendice de la production mécanique. Dans la fabrication et l'artisanat, l'ouvrier se fait servir par l'outil, mais dans l'usine il sert la machine, en étant son appendice vivant. Ces mutations techniques sont suivies d'un second degré de dépendance du travailleur : il dépend non seulement de l'employeur, mais aussi des moyens de travail, ce qui donne à son aliénation une dimension nettement technique. Très vite, il s'avère que l'employeur n'a plus besoin d'autant de travailleurs : de nombreuses opérations de travail sont effectuées par des machines "intelligentes". Il arrive un moment de licenciements massifs, des millions de travailleurs se retrouvent au chômage. La machine devient l'ennemi de sang du travailleur - le moyen de travail. Marx écrit : "Il ne fait aucun doute que les machines elles-mêmes ne sont pas responsables du fait qu'elles "libèrent" le travailleur des moyens de subsistance." [25] La raison, selon Marx, réside dans l'utilisation capitaliste des machines. .

La machine est axiologiquement neutre ! Elle est "hostile" au métier, pas en soi. Elle s'est simplement retrouvée entre de mauvaises mains et doit donc être transférée entre d'autres mains : entre les mains des chômeurs. Et exproprier l'employeur en tant qu'expropriateur, donnant le pouvoir politique et économique aux travailleurs, au prolétariat. Telle est la logique de l'enseignement de Marx.

Un autre aspect important de la conception techno-philosophique de Marx, relatif à l'appréciation de la nature du progrès technique lui-même, mérite d'être noté. Adhérant à un concept dialectique ferme en philosophie, Marx estime que l'un des éléments formant le système de ce processus doit nécessairement contenir une régression relative. Nous parlons du développement technique comme d'un élément important du progrès social. A cette occasion, il écrit : "A notre époque, tout semble se heurter à son contraire. On voit que des machines qui ont le pouvoir miraculeux de réduire et de rendre plus fructueux le travail humain apportent aux gens faim et épuisement. De nouvelles sources de la richesse, grâce à laquelle "Certains charmes étranges et incompréhensibles, se transforment en source de pauvreté. La victoire de la technologie est, pour ainsi dire, achetée au prix de la dégradation morale. Il semble qu'à mesure que l'humanité subjugue la nature, une personne devient un esclave d'autres personnes, ou esclave de sa propre mesquinerie."

10.2. Une tentative d'abandonner le "pouvoir" de la technologie au profit de l'éthique

Le philosophe français de la technologie et culturologue Jacques Ellul (né en 1912) s'est fait connaître avec la publication de Technique (1954). Tous les travaux d'Ellul ont été consacrés à l'analyse et à l'étude de la société technique de son temps. Le principal credo de recherche de l'auteur se résume à remettre en question le concept marxien du rôle décisif du mode de production dans le développement historique de la société. Selon Ellul, la classification des époques historiques devrait être basée sur le degré de développement de la technologie. Ces idées ont été constamment couvertes dans ses livres "Technical Society" (1965), "Political Illusions" (1965), "Metamorphosis of the Bourgeoisie" (1967), "Empire of Absurdity" (1980). Leurs sujets étaient les problèmes de la société technique moderne, la technologie, la personnalité technique, la politique, la position des classes sociales et l'art.

Les concepts centraux de la théorie d'Ellul sont la "technique" et la "technophilosophie". Il définit la technologie comme "un ensemble de méthodes rationnellement développées qui ont une efficacité absolue dans tous les domaines de l'activité humaine". Le "phénomène de la technologie", selon Ellul, se caractérise par des caractéristiques aussi importantes que la rationalité, l'artefactualité, l'auto-direction, l'auto-croissance, l'indivisibilité, l'universalité et l'autonomie. Ces sept caractéristiques, selon l'auteur, forment le contenu caractéristique de la technologie en tant que principale forme dominante de l'activité humaine. Ainsi, c'est la technologie qui détermine toutes les autres formes d'activité, toute la technologie humaine et toutes les structures sociales - économie, politique, éducation, soins de santé, art, sports, etc.

Ellul considère la technologie au stade actuel de son développement dans une large vision du monde comme un type de rationalité. Il remplace la nature par la technosphère, l'environnement technique, remplaçant l'environnement naturel. La technique est une force imposée de l'extérieur, une donnée avec laquelle il faut compter ; elle s'impose simplement par ce qui existe. La technique en tant que donnée, en tant que quelque chose qui se suffit à elle-même, joue un jeu très dangereux et risqué. Dans ce jeu, une personne doit parier uniquement sur les actions qu'elle entreprend pour atteindre ses bons objectifs et réaliser ses bonnes intentions.

Du point de vue de l’auteur, la technologie est conçue pour aider les gens à construire leur maison ici sur Terre. Les « prétentions » de la technologie à se transformer en un principe conditionnant et générateur de tout, son désir de toute-puissance doit être activement contrecarré et sérieusement repoussé. Le concept éthique de renoncement au pouvoir de la technologie, formulé par Ellul, prétend être le rôle d’une telle contre-attaque. Ce concept repose pratiquement sur un déni direct et total du soi-disant « impératif technologique », selon lequel les gens peuvent, et doivent donc, faire tout ce qui leur est techniquement accessible et fondamentalement réalisable. Ellul exige en réalité qu’une telle attitude soit abandonnée. L’éthique du rejet du pouvoir de la technologie exige non seulement une limitation de cet impératif, mais aussi son déni complet. Le principe de départ de ce concept éthique est l'idée de la retenue humaine, qui conduit inévitablement au remplacement de « l'impératif technologique » par l'attitude inverse, selon laquelle les gens doivent s'entendre entre eux pour ne pas faire tout ce qu'ils font. généralement capable d’accomplir techniquement. Cette attitude peut être qualifiée d'« impératif anti-technologique » ; elle devient à la fois pertinente et fatidique, car sur fond d'augmentation exorbitante du pouvoir de la technologie surgit la conviction de l'absence totale de forces extérieures capables de résister à la technologie et de s'opposer activement. sa toute-puissance. Cependant, il n’existe toujours pas de véritable alternative à la technologie, il faut donc « s’entendre » avec elle. Dans ces conditions, une chose reste : suivre l’éthique du rejet du pouvoir de la technologie. Une telle éthique exige non seulement de la retenue, mais aussi le rejet de la technologie qui détruit la personnalité. Pour cela, selon Ellul, une révolution est nécessaire : ​​elle seule peut transformer la technologie d'un facteur d'asservissement de l'homme en un facteur de sa libération. Le philosophe appelle cette révolution « politico-technique » - c'est une sorte de modèle utopique du développement de la société occidentale moderne.

La révolution "politico-technique" est due à la nécessité de résoudre cinq problèmes (aspects) du développement de la société. Premièrement, il est nécessaire d'apporter une aide gratuite aux pays du "tiers monde" afin de leur donner la possibilité de tirer tous les bénéfices de la technologie occidentale, de construire indépendamment leur propre histoire. Deuxièmement, l'utilisation de la force sous «toute forme» et «les arsenaux militaires qui répriment notre économie» doivent être abandonnés, ainsi que «l'État bureaucratique centralisé» doit être complètement éliminé. Dans le même temps, l'auteur estime que cela ne conduira pas à une baisse de l'organisation ou de la confusion, car, à son avis, il n'y aura personne pour créer la confusion, le désordre et la confusion. Ensuite, nous devons arrêter les hausses de prix et encourager les petites entreprises. La baisse du niveau de vie devrait être compensée par une augmentation de sa qualité. Troisièmement, il faut parvenir à un déploiement global des compétences et à une diversification des métiers. À cela s'associent l'épanouissement des talents nationaux, la reconnaissance de toutes les autonomies, la création d'une vie libre et digne pour les petits peuples, la fourniture d'une éducation supérieure pour eux, et pas nécessairement avec la création de leur propre État. Quatrièmement, il est nécessaire de parvenir à une forte réduction du temps de travail, en remplaçant la semaine de travail de 35 heures par une journée de travail de deux heures. De plus, il est censé faire de la propagande sur des questions sur le sens de la vie, sur une nouvelle culture, ouvrir un espace pour une nouvelle gamme de capacités créatives, etc. Enfin, cinquièmement, il est proposé de considérer le temps « économisé » par une personne comme un critère de progrès. La rémunération du travail est censée s'effectuer non pas en argent, mais par l'échange de produits, et quelle que soit la quantité de travail investie.

Le but de la révolution "politico-technique" n'est pas reconnu comme la prise du pouvoir, mais la réalisation des potentiels positifs de la technologie moderne, orientés vers la libération complète de l'homme. Le projet socio-utopique d'Ellul prévoit l'instauration d'une autonomie au niveau des communes. En général, on a l'impression que l'auteur a « copié » son éthique du renoncement au pouvoir de la technique sur une brève histoire de l'édification du communisme en URSS. Toutes ces initiatives avec la réduction des heures de travail, les rations gratuites, etc. ont été mises en œuvre dans les activités du PCUS, ce qui a conduit l'URSS à son effondrement complet et définitif. Néanmoins, l'histoire a tendance à se répéter, comme l'écrivait Marx, « parfois sous la forme d'une farce, maintenant sous la forme d'une tragédie ».

10.3. Révolution dans la technologie et évolution dans la société : Recherches technologiques et philosophiques de l'École de Francfort

L'École de philosophie de la technologie de Francfort est représentée par les noms de philosophes russes bien connus Max Horkheimer (1895-1973) Herbert Marcuse (1898-1979) Théodora Adorno (1903-1969). L'école sous ce nom a été créée dans les années 1930-1940. autour de l'Institut de recherches sociales de l'Université de Francfort-sur-le-Main, dirigé depuis 1931 par Horkheimer. Dans le cadre de l'arrivée des nazis au pouvoir, la plupart des employés de l'institut ont été contraints d'émigrer. L'héritage théorique des représentants de l'École de Francfort est associé au développement des idées de Max Weber, en particulier à l'élaboration d'une théorie critique de la société dans le but de porter « le jugement le plus élevé sur la suppression des classes » afin de créer une « société sans injustices ». La "théorie critique de la société" déclarée part du fait qu'une personne en tant qu'être actif, créatif et libre dans les conditions de la société moderne est déçue ("anéantie"), privée de sa "seconde dimension", qui est sa spiritualité. En même temps, il perd à la fois son ipséité et la spontanéité de son existence, s'aliène à lui-même, sa véritable essence. La technologie porte une certaine part de responsabilité dans ces processus. Il agit comme un générateur de culture de masse, dépourvu de spiritualité, conçu pour la moyenne des modèles culturels, c'est-à-dire. leur dévalorisation, sur la "tromperie de masse" (T. Adorno).

Selon Theodor Adorno, dans la culture dite « de masse », le caractère unique et l'indépendance de l'homme sont perdus, l'unification de tous les peuples se produit, les transformant en une masse grise non critique. De plus, la culture entière est limitée, une totalité historique est projetée, des exigences sont imposées à l'homme qui l'asservissent. Dans ce cas, l’esclavagiste n’est pas la technologie, mais son propriétaire. Adorno part du fait qu’on ne peut en aucun cas opposer technologie et humanisme : une telle opposition est le produit d’une fausse conscience. On peut dire que le fossé même entre la technologie et l’humanisme, aussi incurable soit-il, est un exemple d’apparence socialement créée, écrit Adorno. Le philosophe s'intéresse à la question : comment initier les techniciens à la philosophie de la technologie ? En y répondant, il rejette l'idée qui existait à cette époque selon laquelle la matière lui était enseignée comme de l'extérieur. Il suggère de faire appel à la conscience de soi : « Avec l’aide de nos moyens conceptuels, nous devons les amener à cette conscience de soi. » Mais sur ce chemin, nous rencontrons des difficultés, telles que « les limites professionnelles, le patriotisme » et un sentiment de rejet du savoir humanitaire. Adorno note que « les techniciens perçoivent la culture plus difficilement », puisqu’ils préfèrent la détente aux affaires, « ils ne se laissent pas bourrer par les produits de masse fournis par l’industrie culturelle ». D’un autre côté, les techniciens souffrent du caractère unilatéral, sec et inhumain de leur rationalité. Dans son livre Sur la technologie et l'humanisme, Adorno pose la question de la responsabilité des techniciens pour les fruits de leur travail. Selon le philosophe, pour résoudre ce problème, il faut partir du fait que chacun de nous peut ne pas être lui-même, mais seulement porteur de fonctions spécialement prescrites. Le domaine que l’on appelle habituellement l’éthique ne pénètre qu’indirectement dans ce qui se fait au travail. Adorno rejette la possibilité de l'existence de normes morales qui interfèrent avec la connaissance [26] .

Selon Adorno, la contradiction entre la raison sociale et la raison technique ne peut être ignorée, elle ne peut pas simplement être niée, elle doit être traitée en détail. En fin de compte, la question de savoir si la technologie moderne apportera un bénéfice ou un préjudice à l'humanité ne dépend "pas des techniciens ni même de la technologie elle-même, mais de la manière dont elle est utilisée par la société". Il peut s'avérer que pour déterminer le rôle social de la technologie, les pensées les plus claires sont contenues dans l'évaluation marxiste de la technologie. Sous cet aspect, les jugements d'Adorno concernant le problème du "nouvel idéal de l'éducation" sont très intéressants. Il croit que cet idéal a été détruit, que la culture n'a pas réussi à créer sa propre humanité. La culture paie pour le mensonge, pour les apparences, pour le détachement de l'idée humaniste selon laquelle "les gens se débarrassent de la culture". Adorno conclut : "Aujourd'hui, ce n'est que dans la critique de l'éducation, dans la conscience critique de soi de la technologie... qu'émerge l'espoir d'une éducation qui ne ressemble plus à une Humboldtienne, qui se fixe la vague tâche d'éduquer l'individu"[ 27] .

Adorno était un excellent musicien, écrivain et sociologue. Dans le livre "Dialectique négative", sans prétendre créer une méthodologie philosophique fondamentalement nouvelle, il a essayé de montrer l'anatomie de la vie en utilisant l'exemple de ses intérêts créatifs. La principale contribution d'Adorno à la philosophie réside dans ses vues esthétiques, dans lesquelles il considère l'expérience de la compréhension de l'individu comme non identique. Dans le concept philosophique et esthétique de la nouvelle musique comme fixation protocolaire de la "souffrance non éclairée" par opposition à la transformation harmonique des passions caractéristique des classiques, Adorno se concentre sur le travail des compositeurs de la "nouvelle école viennoise". Le concept de « nouvelle musique » est étroitement lié à la critique de la culture moderne standardisée de masse et de « l'ouïe régressive » qui se forme en son sein, qui dissocie la perception en éléments stéréotypés. Les œuvres d'Adorno ont eu un impact positif sur l'esthétique, la musicologie et l'idéologie des mouvements de jeunesse de son temps.

Les problèmes de la socialisation de l'individu en Allemagne ont été activement pris en compte dans les travaux d'un autre représentant de l'école de Francfort, philosophe et sociologue Jürgen Habermas (né en 1929). Disciple de T. Adorno, partisan des premières idées pédagogiques bourgeoises, idéologue des mouvements étudiants des années 1960, de la formation d'un État de droit dans l'Allemagne d'après-guerre, Habermas est considéré comme un représentant éminent de la "deuxième génération " des théoriciens de l'école de Francfort. Basé sur le concept de "liberté et action communicative", il forme son attitude négative envers la philosophie occidentale de la technologie, sujette à la pensée technocratique. Habermas adhère au concept selon lequel la technologie est déclarée être une force qui prive une personne de son esprit créatif libre, la privant de la possibilité d'une action libre, de l'expression de soi et de l'auto-organisation, et finalement la transformant en son propre esclave les créations. Habermas relie l'émancipation de l'homme au déplacement de la « raison instrumentale », sa subordination à l'esprit humain comme intégrité qui unit l'esprit individuel et social. Il la rattache à la mise en place d'une "démocratie communicative" qui conjugue le progrès scientifique et technologique avec les valeurs et les normes de la civilisation humaine, un "tournant linguistique" en philosophie et en sciences sociales, qui entraîne le rejet d'une phénoménologie subjectiviste fondée sur l'analyse de la conscience intérieure du temps. La rationalité se concentre non pas dans la sphère de la raison, mais dans les formes linguistiques de compréhension mutuelle.

Habermas oppose le paradigme communicatif au paradigme de production du marxisme. Il mène des recherches sur la théorie de l'action communicationnelle dans cinq domaines principaux. Premièrement, ils proposent une nouvelle théorie de la société, différente du projet d'Adorno et Horkheimer. Deuxièmement, le concept de rationalité communicative est développé au moyen de l'herméneutique, de diverses théories du langage. Troisièmement, la théorie de l'action sociale (communicative) est en cours d'élaboration. Quatrièmement, des recherches sont menées sur la base de nouveaux concepts de "monde de la vie" et de "système" avec une analyse de leur relation dans une perspective historique. Enfin, cinquièmement, à l'aide de ces concepts, les tendances et les crises de la modernité sont analysées.

L'attitude de Habermas envers la théorie de K. Marx a changé au fil des ans d'enthousiaste à critique. Marx voyait dans le capitalisme les traits d'une société politisée basée sur le travail collectif. Le socialisme, selon Marx, doit se développer régulièrement grâce à une gestion systémique. Cependant, selon Habermas, les problèmes concernant la forme de la communication sont restés en dehors du champ de vision de Marx, mais ils fournissent la clé d'une réorganisation raisonnable de la société. Habermas a tenté de corriger la théorie de Marx à l'aide de son concept d'« action communicative ».

Habermas critique également la théorie de T. Adorno comme ayant une coloration pessimiste et improductive, incapable de surmonter les contradictions existant dans la société. Comme l'écrit Habermas, Adorno et Horkheimer ont essayé de sauver la "raison instrumentale" qu'ils ont inventée à l'aide de la raison instrumentale elle-même, c'est-à-dire lui imposer des tâches manifestement insupportables. Dans sa Théorie de l'action communicative en deux volumes, Habermas s'appuie sur les règles de la communication en termes d'action de la parole, de conversation, de discussion et de discours. Dans sa compréhension, le discours est plus qu'une conversation libre. Il s'agit d'un dialogue basé sur un énoncé normatif au niveau de haute maturité théorique, c'est-à-dire conversation "d'adultes" (Mundigkeit), avec la participation du plus grand nombre. Un tel dialogue "mondain", un discours, comme la communication entre un médecin et un patient, devrait conduire à un remède contre les maux. Selon l'auteur, un tel discours est un modèle, un modèle pour le développement de la compétence communicative.

Thème 11. Orientation humanitaire-anthropologique dans la philosophie de la technologie

11.1. Technophilosophie de Karl Jaspers : domination sur la nature à l'aide de la nature elle-même

Philosophe existentialiste allemand, psychiatre Karl Jaspers (1883-1969) était professeur de psychologie à l'Université de Heidelberg. En 1937, il fut démis de ses fonctions pour des raisons politiques. Après la guerre, il enseigne à l'Université de Bâle. Parmi ses principaux ouvrages figurent « Philosophie » (en 3 volumes, 1932), « Les origines et le but de l'histoire » (1949), « Les grands philosophes » (en 2 volumes, 1957), la monographie « Où l'Allemagne bouge » (1969 ), "Technologie moderne" (édition russe - 1989). Nous nous intéressons principalement à ses derniers travaux. Pour la première fois, du point de vue de la technophilosophie, il analyse les travaux de Fichte, Hegel et Schelling, consacrés à la justification du temps dit axial, qui a commencé avec l'émergence du christianisme. Un trait distinctif de cette époque est l’appauvrissement catastrophique dans le domaine de la vie spirituelle, de l’humanité, de l’amour et l’augmentation simultanée des succès dans le domaine de la science et de la technologie. La pauvreté spirituelle de nombreux naturalistes et techniciens se caractérise par leur insatisfaction cachée face à la disparition de l’humanité. Jaspers considère la technologie comme l'ensemble des actions qu'une personne bien informée accomplit dans le but de dominer la nature, c'est-à-dire afin de donner à sa vie « une forme qui lui permettrait de se débarrasser du fardeau du besoin et de trouver la forme souhaitée de l’environnement ». En accord avec l'évaluation de Marx sur la révolution industrielle, Jaspers écrit sur les changements dans la relation entre l'homme et la nature, sur sa subordination à la nature et les conséquences de cette « tyrannie ». La planète, comme l’écrit Jaspers, est devenue une seule usine !

Jaspers concrétise sa compréhension de la technologie comme suit. Selon lui, elle se caractérise par deux traits : d'une part, la raison, d'autre part, le pouvoir. La technique repose sur l'activité de l'esprit, car elle fait partie d'une rationalisation générale. Mais en même temps, c'est la capacité, la capacité de faire, d'utiliser la nature contre la nature elle-même. C'est en ce sens que savoir c'est pouvoir, Pouvoir ! La signification principale de la technologie est la libération de l'homme du pouvoir de la nature. Le principe de la technologie est la manipulation des forces de la nature pour réaliser le but d'une personne, sous l'angle de sa vision.

Jaspers identifie deux principaux types de technologie - la technologie qui produit de l'énergie et la technologie qui produit des produits, ainsi que trois facteurs qui affectent le développement des connaissances scientifiques et techniques :

1) les sciences naturelles, qui créent leur propre monde artificiel et sont les conditions préalables à son développement ultérieur;

2) l'esprit d'invention, contribuant à l'amélioration des inventions existantes ;

3) organisation du travail visant à accroître la rationalisation des activités scientifiques et industrielles.

Le travail humain apparaît également dans une dimension tridimensionnelle : en tant que dépense de force physique, en tant qu'activité systématique et en tant que propriété essentielle d'une personne. Collectivement, le travail est une activité systématique visant à transformer les objets de travail à l'aide des moyens de travail.

Le monde d'une personne - l'habitat artificiel et l'existence qu'elle a créés - n'est pas le résultat d'un travail humain individuel, mais d'un travail humain collectif (après tout, une personne individuelle ne peut pas tout faire !). Jaspers, à la suite de Marx, conclut : « la structure de la société et la vie des individus dans toutes ses dimensions et ramifications dépendent de la nature du travail et de sa division ». Au cours du développement humain, l'évaluation sociale du travail a changé. Les Grecs méprisaient le travail physique, le considérant comme le lot des masses ignorantes. Selon la version chrétienne, l'homme était condamné à gagner son pain à la sueur de son front, expiation de sa chute, c'est-à-dire le travail est associé à la punition. L'exception en ce sens concerne les protestants, qui voient une bénédiction dans le travail, et en particulier les calvinistes, qui considèrent le travail comme un acte divin, une preuve d'élection. Cependant, l’attitude à l’égard de la technologie n’est pas aussi positive, même parmi les protestants. « Au cours des cent dernières années, écrit Jaspers, la technologie a été soit glorifiée, soit méprisée, soit considérée avec respect. » Mais la technologie elle-même est neutre : elle n'est ni mauvaise ni bonne. Tout dépend de ce qui peut être réalisé avec son aide. Pour cela, Jaspers s'appuie sur la conscience humaine. Ainsi, Jaspers a réussi à isoler une foi-intuition philosophique particulière : une idée philosophique se révèle d'abord à nous intuitivement, et cherche ensuite seulement son expression dans des images et des concepts. L’histoire cesse d’être seulement l’histoire de la culture et de la civilisation, pour se présenter comme une forme spécifique d’évolution universelle. L’instrument principal de la conscience historique et de la cognition sociale n’est plus la « raison pure », mais la conscience individuelle, qui se sent impliquée dans la vie universelle. Le sens naturel de l’espèce humaine, associé à la connaissance scientifique rationnelle et théorique, donne à l’homme l’intuition synthétique comme un avantage fondamental pour faire face à la nature spontanée des processus cosmiques et historiques.

11.2. Le concept techno-philosophique de Lewis Mumford : la doctrine de la « mégamachine »

philosophe et sociologue américain Lewis Mumford (1895-1988), partisan du « New Deal » de F.D. Roosevelt, transforma plus tard considérablement ses idées vers le conservatisme. Ses nombreux ouvrages sont consacrés à la philosophie de la technologie : « Technologie et civilisation » (1934), « Art et technologie » (1952), « Le mythe de la machine » (2 volumes, 1967-1970). Mumford est considéré comme un représentant du déterminisme technologique négatif. Il voyait la cause principale de tous les maux et bouleversements sociaux dans l’écart croissant entre le niveau technologique et le niveau moral. Il a qualifié les progrès scientifiques et technologiques réalisés depuis l'époque de G. Galilée et F. Bacon d'« impérialisme intellectuel », dont sont tombés l'humanisme et la justice sociale. La science est un substitut à la religion, et les scientifiques sont une classe de nouveaux prêtres - c'est ainsi que Mumford évaluait la science et ses serviteurs.

Mumford avait de sérieuses divergences avec Marx sur le rôle de la technologie dans la société. Il pensait qu’il était impossible de comprendre le rôle réel de la technologie en considérant l’homme comme un « animal fabricant d’outils ». L'homme ancien n'avait qu'une seule arme : son corps, contrôlé par le cerveau, l'esprit. Son énergie mentale dépassait ses besoins et la technologie des armes faisait partie de la biotechnologie du cerveau. Mumford voit les origines de cette « énergie mentale supplémentaire » non seulement dans le travail, mais aussi dans d’autres composantes de l’existence collective et de la communication, comme les aspects ludiques, esthétiques et religieux de la vie humaine, et d’autres formes non professionnelles déterminées par l’expérience. d'obtenir un moyen de subsistance. Il divise l’histoire de la civilisation européenne en trois étapes principales. La première étape (de 1000 à 1750) est caractérisée par la culture de la technique dite intuitive associée à l'utilisation de la force de la chute d'eau, du vent et à l'utilisation de matériaux naturels : bois, pierre, etc. détruire la nature, mais être en harmonie avec elle. La deuxième étape (XVIII - XIX siècles) est basée sur la paléotechnique (c'est-à-dire la technologie fossile) ; c'est la technique empirique du charbon et du fer. Cette étape a été caractérisée par une rupture avec la nature et une tentative de domination humaine sur la nature. Mumford appelle cette période la « civilisation minière ». La troisième étape (de la fin du XIXe siècle à nos jours) est la phase finale du fonctionnement et du développement de la civilisation occidentale, au cours de laquelle la restauration de l'harmonie de la technologie et de la nature, perturbée lors de la phase précédente, s'effectue de manière strictement base scientifique. Mumford a consacré ses livres « Le mythe de la machine » (1969, 1970), « L'homme comme interprète » (1950) et d'autres ouvrages à l'analyse de cette période. Se distanciant des définitions devenues populaires comme « homo faber », il défend le concept d'« homo sapiens », puisque l'essence de l'homme, selon lui, réside dans la pensée, et que la base de l'humanité est l'esprit - l'esprit. L'homme est avant tout un interprète. Cette qualité d'une personne se révèle dans l'auto-créativité : une personne se projette et se crée.

L'approche de Mumford à l'histoire du développement de la technologie est remarquable. Il en distingue deux types principaux : la biotechnologie et la monotechnologie. La biotechnologie est un type de technologie qui vise à répondre aux besoins de la vie et aux besoins et aspirations naturels d'une personne. La monotechnique se concentre principalement sur l'expansion économique, la saturation matérielle et la production militaire. Son objectif est de renforcer le système de pouvoir personnel, et il est donc de nature autoritaire. Il est hostile non seulement à la nature, mais aussi à l'homme. Son statut autoritaire remonte à ses origines à la première période de l'existence de la civilisation humaine, lorsque la "mégamachine" a été inventée pour la première fois - un nouveau type de machine d'organisation sociale capable d'améliorer le potentiel humain et de provoquer des changements dans tous les aspects de l'existence.

La machine humaine dès le début de son existence a combiné deux facteurs : 1) négatif, coercitif et destructeur ; 2) positif, vivifiant, constructif. Ces deux facteurs ont agi conjointement. Le concept de machine, venant de Franz Reuleaux (1829-1905), désigne des combinaisons de "pièces strictement spécialisées capables de résister, fonctionnant sous contrôle humain, pour l'utilisation de l'énergie et l'exécution du travail". À cet égard, Mumford écrit : « La grande machine de travail est restée une véritable machine à tous égards, d'autant plus que ses composants, bien que faits de chair humaine, de nerfs et de muscles, ont été réduits à des éléments purement mécaniques et rigidement standardisés pour la performance de tâches limitées."

Tous les types de machines modernes sont des appareils permettant d'économiser du travail. On s’attend à ce qu’ils accomplissent le maximum de travail avec le minimum d’effort humain. Dans les temps anciens, il n’était pas question d’économiser du travail et, comme l’écrit Mumford, les machines pouvaient être appelées des appareils utilisant du travail. Pour le fonctionnement normal de la « machine humaine », deux moyens étaient nécessaires : une organisation fiable des connaissances (naturelles et surnaturelles) et un système développé pour émettre, exécuter et vérifier l'exécution des ordres. Le premier s’incarnait dans le sacerdoce, sans l’aide active duquel l’institution de la monarchie ne pourrait exister ; le second est dans la bureaucratie. Les deux organisations étaient hiérarchiques, avec un grand prêtre et un roi au sommet de la hiérarchie. Sans leurs efforts conjugués, l’institution du pouvoir ne pourrait pas fonctionner efficacement. (D'ailleurs, cette condition reste vraie aujourd'hui.) Par conséquent, le premier de ces deux moyens - la connaissance, à la fois naturelle et surnaturelle - devait rester entre les mains de l'élite sacerdotale, c'est-à-dire être un monopole sacerdotal ou une propriété sacerdotale. Ce n’est que dans de telles conditions, et donc sous un contrôle strict et total de l’information et de sa distribution à de larges couches de la population, que la cohérence de la mégamachine pourrait être assurée et préservée de la destruction. Sinon, c'est à dire lorsque les « secrets du temple » seront révélés et que des « informations secrètes » seront découvertes, la « mégamachine » tombera certainement en ruine et finira par s'effondrer et périr. À cet égard, Mumford attire l'attention sur le fait que le langage des mathématiques supérieures sous forme d'informatisation a aujourd'hui restauré à la fois le secret et le monopole de la connaissance, avec la résurrection ultérieure du contrôle totalitaire sur celle-ci. Memford souligne également une autre caractéristique de la « mégamachine » : la fusion du monopole du pouvoir avec le monopole de la personnalité. L’auteur rêve de la destruction d’une telle « mégamachine » sous toutes ses formes institutionnelles. Selon lui, cela détermine si la technologie fonctionnera « au service du développement humain » et si le monde de la biotechnologie deviendra plus ouvert aux personnes.

11.3. La philosophie de la technologie par J. Ortega y Gasset : la technologie comme production d'excès

Vues philosophiques du publiciste, personnage public et philosophe espagnol José Ortega et Gasset (1883-1955) se sont formés sous l'influence des concepts de l'école de Marbourg. Le rôle décisif à cet égard a été joué par les idées de Hermann Cohen (1842-1918), Paul Natorp (1854-1924), Ernst Cassirer (1874-1945), Nikolai Hartmann (1882-1950). Le but de l'école de Marburg était d'analyser les catégories philosophiques, les concepts du socialisme éthique. Ortega y Gasset était fasciné par la thèse de l'autoposition du sujet connaissant dans le processus de développement culturel. Il avait une attitude positive envers la théorie de l'expérience spirituelle comme écoute de la vie (M. Heidegger), était préoccupé par le problème de la désunion entre les créateurs de la culture et ses «consommateurs», les résultats négatifs de la culture, manifestés sous la forme de désorientation sociale dans le système de la « société de masse ». Sa plume appartient au livre "Reflections on Technology" (1933).

Considérant la vie comme un « besoin des besoins », Ortega y Gasset défend l'autonomie de l'individu par rapport à son propre destin comme répertoire d'action de la vie. Dans cette liste particulière figurent à la fois les besoins naturels, organiques, biologiques, ainsi que les actions qui satisfont ces besoins. En fait, dans cet assortiment, tant pour les animaux que pour les humains, tout est pareil. La différence, cependant, est qu'une personne entreprend certaines actions - elle produit elle-même quelque chose qui n'existe pas dans la nature. C'est son répertoire. Mais ce n'est pas son action la plus importante: après s'être libérée du déficit des besoins vitaux, une personne a la possibilité d'élargir l'éventail de ses besoins, c'est-à-dire élargissez votre répertoire. De cette propriété de la nature humaine, l'auteur tire une conclusion sur l'incohérence des besoins humains. Le répertoire des besoins humains ne coïncide pas avec le menu des besoins vitaux. C'est son désir actuel d'agir selon le second répertoire (étendu) et constitue ce qu'on appelle l'activité de transformation de la nature. Pour satisfaire ses besoins, pour leur plaire, une personne impose ses désirs à la nature, si elle n'est pas encore prête à les servir. Dans ce service, Ortega y Gasset observe comment la nature elle-même se transforme. Elle impose à l'homme des exigences sous la forme de besoins naturels. Une personne y répond en lui imposant des changements, en la transformant à l'aide de la technologie. Par cette transformation, la technologie soutient le désir humain. Et cette connexion, qui relie la nature à l'homme et vice versa, est une sorte d'intermédiaire - la surnature construite au-dessus de la "première" nature.

Un animal a sa propre nature prédéterminée. C'est un être non technique - précisément à cause de l'absence de principe actif en lui. L'homme, grâce à son don technique naturel, crée ce qui manque, crée de nouvelles circonstances, adaptant la nature à ses besoins. L’homme et la technologie fusionnent. Les actions techniques visent, premièrement, à inventer quelque chose, deuxièmement, à fournir des conditions et, troisièmement, à créer de nouvelles opportunités. La tâche de la technologie est de faire des efforts pour économiser des efforts. Selon l'auteur, c'est alors qu'une personne est confrontée au problème de savoir comment gérer le temps libéré après avoir vaincu cette vie animale. Grâce à la technologie, la vie humaine dépasse la nature, l'homme affaiblit sa dépendance à l'égard de la nature. Mais un nouveau problème se pose devant lui : comment vivre !? Ortega y Gasset répond à cette question comme suit. La réalité est que le monde à la fois apporte du confort et gêne l’homme. C'est dans un tel monde que l'homme habite ; son existence est entourée à la fois de confort et de difficultés. C’est ce qui donne un sens ontologique à l’existence humaine. L’homme est destiné à être un être « surnaturel » et en même temps naturel – un centaure ontologique !

Ainsi, le "je" humain est un effort continu pour réaliser un certain projet, un programme d'existence, comprenant ce qui n'existe pas encore, ainsi que ce que nous devons créer pour nous-mêmes. Les circonstances sont données à l'homme comme une « matière première » et un mécanisme. Un homme-technicien tente de découvrir un appareil caché dans le monde qui est nécessaire à sa vie. Pour l'auteur, le programme de vie a une dimension non technique, c'est-à-dire origine pré-technique. Ses racines plongent profondément dans l'ère de l'invention pré-technique. Par conséquent, la probabilité de technocratie est extrêmement faible : par définition, un technicien humain ne peut pas gérer, être la plus haute autorité, son rôle est secondaire. La technique suppose, d'une part, un être qui a un désir, mais n'a pas encore de projet, d'idée, de programme, et, d'autre part, l'existence d'un lien entre l'évolution de la technique et la manière d'être de une personne. Dans ce contexte, Ortega de Gasset considère le bodhisattva indien, l'hidalgo espagnol et le gentleman anglais des années 1950. Un bodhisattva réduit ses besoins matériels au minimum et est indifférent à la technologie. Seul le gentleman anglais est actif, qui s'efforce de vivre pleinement dans le monde réel. Dans la description de l'auteur, le monsieur est sûr de lui, honnête, il a le sens de la justice, de la sincérité, de la maîtrise de soi, une compréhension claire de ses droits et des droits des autres, ainsi que de ses devoirs envers les autres. Une telle analyse était nécessaire pour déterminer la périodisation de l'histoire des techniques, où le rapport d'homme à homme et d'homme à technique est essentiel. L'auteur identifie trois étapes importantes dans le développement historique de la technologie :

1) la technique du hasard est historiquement la première forme d'existence de la technique, inhérente à la société primitive et caractéristique de l'homme préhistorique. Il se distingue par la simplicité et la rareté de l'exécution et des actions techniques extrêmement limitées (L. Noiret et d'autres ont écrit à ce sujet) ;

2) la technique artisanale est la technique de la Grèce antique, de la Rome pré-impériale, du Moyen Âge européen. Au cours de cette période, l'ensemble des actions techniques est considérablement élargi, dont l'assimilation nécessite une formation spéciale, et l'engagement dans des activités techniques devient une profession et est hérité;

3) la technique de la technique humaine est une technique de machine avec des dispositifs techniques, qui trouve son origine dans la seconde moitié du XVIIIe siècle, lorsque le métier à tisser mécanique d'Edmund Cartwright a été inventé (1743).

La machine modifie considérablement la relation entre l'homme et l'outil. La machine "fonctionne", et la personne la sert. Il est un appendice de la machine. Un effet secondaire de ce processus est la "crise des désirs", le manque de spiritualité. Ortega y Gasset qualifie sa doctrine de rationalisme, bien qu'il soit proche de l'existentialisme.

Thème 12. Déterminisme technologique et technophobie

12.1. Le concept de déterminisme

Le déterminisme (du latin determino - je détermine) est la doctrine de la connexion et de l'interdépendance des phénomènes de la réalité. Il considère les questions sur les lois de la nature, sur l'interaction de la nature et de la société, sur les forces motrices du développement social, l'influence de la société et de ses sous-systèmes individuels sur l'art, la science, la morale, sur la formation et l'activité des individus humains. Le problème central du déterminisme est la question de l'existence et du fonctionnement des lois. La reconnaissance des lois, en substance, signifie la possibilité d'une connaissance scientifique de la nature et de la société, les possibilités de la science, l'adaptation scientifiquement orientée d'une personne à divers processus. Le déni des lois, au contraire, stimule la vision de la nature et de la société comme des processus totalement incontrôlables et imprévisibles. En ce qui concerne la société, une telle vision est souvent née des tentatives d'identifier les spécificités des processus sociaux par rapport aux processus naturels, de souligner l'importance des activités des personnes, la créativité individuelle pour l'histoire sociale. Cette tendance n'a pas été complètement surmontée, bien que la simplification des lois sociales ne soit pas stimulée par la mécanique, mais principalement par la biologie.

Une difficulté méthodologique particulière est l'interprétation des lois dérivées de l'interaction des relations humaines. Ainsi, K. Marx croyait que le moulin à main est le reflet du modèle de société avec le suzerain en tête, la machine à vapeur correspond à la société du capitalisme industriel (bien que ces analogies ne perdurent pas, ce qui indique les limites d'un tel détermination). Selon le concept de déterminisme technologique, une image différente se dégage. Un tel déterminisme donne à la technologie et à l'activité technique un statut absolu comme base du fonctionnement et du développement de la société. En tant qu'attitude philosophique, il élève la technologie au rang de cause principale qui détermine tous les aspects de la vie sociale et culturelle, de l'économie, de la politique à l'art et à la philosophie.

Dans la philosophie de la technologie, on distingue deux formes principales de déterminisme technologique : l'eudémonisme technologique (du grec eudaimonia - félicité) et l'alarmisme technologique. La première direction élimine ("supprime") toutes les conséquences négatives de l'activité technique humaine et ne voit donc que des aspects positifs dans le progrès technologique : elle idolâtre la technologie, absolutise sa signification comme source de bien-être. La deuxième direction montre une attitude sceptique à l'égard des innovations techniques : « tout va mal » pour elle ; tout promet désastre et destruction de la spiritualité d'une personne, aliénation de sa propre essence, etc. Ces deux directions ont leurs partisans et leurs apologistes, et dans chacune d'elles il y a des grains de vérité.

12.2. La théorie de la transformation technocratique de la société

Économiste américain d'origine norvégienne Thorstein Veblen (1857-1929) est connu comme le fondateur et théoricien de l'institutionnalisme, partisan de la transformation technocratique de la société, prenant en compte l'influence des traditions culturelles des institutions sociales. Le concept d'institutionnalisme (du latin institutio - instruction) remonte aux institutions - manuels des juristes romains, donnant un aperçu systématique des normes juridiques existantes. Dans le XNUMXème siècle les institutions existaient comme un complexe de diverses associations de citoyens (famille, partis, syndicats, etc.) luttant pour l'élévation des traditions et coutumes au rang de loi, en les consolidant sous forme d'institutions. En analysant la nature de ce phénomène social, Veblen arrive à la conclusion que les opinions des gens sont en retard par rapport aux changements technologiques et productifs.

Dans sa théorie de la classe des loisirs, Veblen analyse l'antagonisme entre le travail productif et la consommation ostentatoire dans la société moderne, qu'il considère comme une « perversion » institutionnalisée de l'instinct inventif inhérent aux personnes. Il présente l'histoire comme le résultat de la lutte des entrepreneurs de la sphère du traitement avec les entrepreneurs de la sphère de la production, dont les premiers sont les plus réactionnaires. Les affaires engendrent la propriété privée, le nationalisme, l'ignorance religieuse, c'est pourquoi Veblen appelle à l'établissement d'une dictature dans la société, dirigée par l'intelligentsia technique. Selon Veblen, le capitalisme oppose fortement les affaires et l'industrie. Il n'aime pas le motif commercial basé sur le principe de "l'achat et la vente". Dans The Theory of the Leisure Class (1899), il écrit : « Les coutumes du monde des affaires ont pris forme sous l'action directrice et sélective des lois de la prédation et du parasitisme. La classe supérieure de la société capitaliste est essentiellement une classe « parasitaire ». L'auteur s'oppose au facteur propriété, qui permet à la couche "parasite" de baigner dans le luxe sans participer à la création de la richesse matérielle. Veblen accuse cette classe des accusations suivantes : premièrement, possession des moyens de production ; deuxièmement, la non-participation au processus de production ; troisièmement, un mode de vie oisif; quatrièmement, le parasitisme et l'escroquerie ; cinquièmement, la consommation et le gaspillage ostentatoires. Pour surmonter un tel « parasitisme » social, Veblen propose une révolution technocratique et l'établissement du pouvoir de l'intelligentsia scientifique et technique (technocratie), cependant, ne permettant pas à la classe ouvrière d'accéder au pouvoir, ce qui, selon Veblen, a ses contre-indications. Il propose son propre scénario pour cette révolution technocratique. Selon lui, une grève puissante des ingénieurs paralyserait l'ordre ancien et forcerait la "classe oisive" à renoncer volontairement à son monopole du pouvoir au profit de l'intelligentsia scientifique et technique. Dans la "technostructure", qui comprend des ingénieurs, des scientifiques, des managers, des actionnaires, l'auteur a vu le moteur d'une telle révolution technocratique, dont le but est de saisir la propriété du propriétaire et de la transférer entre les mains de la technocratie.

Les intellectuels des pays européens ont tellement aimé ce fantasme de Veblen que même un idéologue aussi éminent de la technocratie que J. Gilbraith, l'auteur du livre "The New Industrial Society", l'a soutenu. Dans l'ensemble, les idées rejoignent la critique externe de l'économie politique de Gabriel Tarde (1843-1904). Les adeptes de la technocratie de Veblen étaient J. Gilbraith, D. Bell, W. Rostow, E. Toffler et d'autres.

12.3. Société "post-industrielle" et "de l'information"

Le concept de société post-industrielle a été proposé par un sociologue et politologue américain Daniel Belle (né en 1919), professeur aux universités de Harvard et de Columbia. Dans son livre "The Coming Post-Industrial Society", la taille du produit intérieur brut (PIB) par habitant a été présentée comme critère de classification de l'État en tant que telle société. Sur la base de ce critère, une périodisation historique des sociétés a également été proposée : pré-industrielle, industrielle et post-industrielle. Bell considère le « déterminisme axiologique » (la théorie de la nature des valeurs) comme la base idéologique d'une telle classification. Une société préindustrielle se caractérise par un faible niveau de développement de la production et une faible quantité de PIB. Cette catégorie comprend la plupart des pays d'Asie, d'Afrique et d'Amérique latine. Les pays européens, les États-Unis, le Japon, le Canada et quelques autres sont au stade du développement industriel. L'étape post-industrielle commence au XNUMXème siècle.

Selon Bell, cette étape est principalement liée aux technologies informatiques et aux télécommunications. Il repose sur quatre procédés technologiques innovants. Premièrement, le passage des systèmes mécaniques, électriques et électromécaniques aux systèmes électroniques a entraîné une augmentation incroyable de la vitesse de transfert des informations. Par exemple, la vitesse de fonctionnement d'un ordinateur moderne se mesure en nanosecondes et même en picosecondes. Deuxièmement, cette étape est associée à la miniaturisation, c'est-à-dire un changement significatif d'amplitude, "compression" des éléments structurels qui conduisent les impulsions électriques. Troisièmement, il se caractérise par la numérisation, c'est-à-dire transmission discrète d'informations au moyen de codes numériques. Enfin, les logiciels modernes vous permettent de résoudre rapidement et simultanément divers problèmes sans connaître de langage particulier. Ainsi, la société post-industrielle est un nouveau principe d'organisation socio-technique de la vie. Bell distingue les principales transformations qui se sont opérées dans la société américaine, qui est entrée dans l'ère du développement post-industriel : a) de nouvelles industries et spécialités (analyse, planification, programmation, etc.) ont été incluses dans le secteur des services ; b) le rôle des femmes dans la société a radicalement changé - grâce au développement du secteur des services, l'égalité des femmes a été institutionnalisée ; c) il y a eu un tournant dans le domaine de la connaissance - le but de la connaissance était l'acquisition de nouvelles connaissances, connaissances du second type ; d) l'informatisation a élargi le concept de "lieu de travail". Bell considère que le principal enjeu de la transition vers une société postindustrielle est la mise en œuvre réussie des quatre facteurs égaux suivants : 1) l'activité économique ; 2) l'égalité de la société sociale et civile ; 3) assurer un contrôle politique fiable ; 4) assurer le contrôle administratif[28] .

Selon Bell, une société post-industrielle se caractérise par le niveau de développement des services, leur prédominance sur tous les autres types d'activité économique dans le PIB total et, par conséquent, par le nombre de personnes employées dans ce domaine (jusqu'à 90 % de la population active). Dans ce type de société, l'organisation et le traitement de l'information et des connaissances sont particulièrement importants. Ces processus sont basés sur l'ordinateur - la base technique de la révolution des télécommunications. Selon Bell, cette révolution se caractérise par les caractéristiques suivantes :

1) la primauté des connaissances théoriques ;

2) disponibilité de la technologie intellectuelle ;

3) croissance du nombre de porteurs de connaissances ;

4) passage de la production de biens à la production de services ;

5) changements dans la nature du travail ;

6) changer le rôle des femmes dans le système de travail.

Le concept de société post-industrielle a également été abordé dans les travaux de E. Toffler, J. K. Gilbraith, W. Rostow, R. Aron, Z. Brzezinski et d'autres. Alvin Töffler (née en 1928) la société postindustrielle signifie l’entrée des pays dans la troisième vague de leur développement. La première vague est la phase agricole, qui a duré environ 10 1950 ans. La deuxième vague est associée à la forme d'organisation sociale industrielle-usine, qui a conduit à une société de consommation de masse et de massification de la culture. La troisième vague se caractérise par le dépassement des formes de travail déshumanisées, la formation d'un nouveau type de travail et, par conséquent, d'un nouveau type de travailleur. La servitude du travail, sa monotonie et la nature des ateliers clandestins appartiennent désormais au passé. Le travail devient désirable et créatif. Le travailleur de la Troisième Vague n’est pas un objet d’exploitation, un appendice des machines ; il est indépendant et débrouillard. Le lieu de naissance de la troisième vague est les États-Unis, l’époque de naissance est les années XNUMX.

À l'ère de la société post-industrielle, le concept de capitalisme a également subi une transformation importante. La caractérisation du capital comme catégorie économique mesurant diverses formes de reproduction sociale est historiquement conditionnée par la formation d'une société de type industriel. Dans une société post-industrielle, les formes économiques du capital en tant que valeur auto-croissante sont révélées d'une manière nouvelle dans la théorie de la valeur de l'information : le coût de l'activité humaine et ses résultats sont déterminés non seulement et pas tant par les coûts de main-d'œuvre , mais par une information incarnée qui devient source de valeur ajoutée. On repense l'information et son rôle en tant que caractéristique quantitative nécessaire à l'analyse du développement socio-économique. La théorie de la valeur de l'information caractérise non seulement la quantité d'information incorporée dans le résultat de l'activité de production, mais aussi le niveau de développement de la production d'information comme base du développement de la société. Les structures socio-économiques de la société de l'information sont développées sur la base de la science en tant que force productive directe. Dans cette société, l'agent réel devient "une personne qui sait, comprend" - "Homo intelligeens". Ainsi, les formes économiques du capital, ainsi que le capital politique étroitement lié, qui jouaient auparavant un rôle important, sont de plus en plus dépendants de formes non économiques, principalement du capital intellectuel et culturel.

D. Bell nomme cinq problèmes principaux qui sont résolus dans une société post-industrielle :

1) la fusion des systèmes de communication téléphonique et informatique ;

2) remplacement du papier par des moyens de communication électroniques, y compris dans les domaines tels que la banque, la poste, les services d'information et la copie à distance de documents ;

3) expansion du service de télévision par le biais de systèmes de câblodistribution ; remplacement des transports par les télécommunications à l'aide de films vidéo et de systèmes de télévision intérieure ;

4) réorganisation du stockage de l'information et des systèmes de sa demande basés sur des ordinateurs et un réseau d'information interactif (Internet) ;

5) expansion du système éducatif basé sur l'apprentissage par ordinateur ; l'utilisation des communications par satellite pour l'éducation des résidents ruraux; utilisation de vidéodisques pour l'enseignement à domicile.

Dans le processus d'informatisation de la société, Bell voit également un aspect politique, considérant l'information comme un moyen d'accéder au pouvoir et à la liberté, ce qui implique la nécessité d'une régulation étatique du marché de l'information, c'est-à-dire le rôle croissant du pouvoir de l'État et la possibilité d'une planification nationale. Dans la structure de la planification nationale, il met en évidence les options suivantes : a) coordination dans le domaine de l'information (besoins de main-d'œuvre, d'investissement, de locaux, de service informatique, etc.) ; b) modélisation (par exemple, suivant le modèle de V. Leontiev, L. Kantorovich); c) planification indicative (stimuler ou ralentir par la méthode de la politique de crédit), etc.

Bell est optimiste quant à la perspective d'un développement mondial sur la voie du passage d'une « société nationale » à la formation d'une « société internationale » sous la forme d'un « ordre international organisé », « d'intégrité spatio-temporelle, en raison de la nature des communications. » Cependant, il note que "... l'hégémonie américaine dans ce domaine ne peut que devenir le problème politique le plus aigu des prochaines décennies". A titre d'exemple, Bell cite les problèmes d'accès aux systèmes informatisés développés dans les sociétés industrielles avancées avec la perspective de créer un réseau mondial de banques de données et de services.

Daniel Bell se disait socialiste en économie, libéral en politique et conservateur en culture, et était l'un des éminents représentants du néo-conservatisme américain en politique et en idéologie.

12.4. La technophobie comme moyen de diaboliser la technologie

La technophobie, ou peur de la technologie, est une attitude selon laquelle la technologie est considérée comme la principale raison de l’éloignement de l’homme de la nature, de lui-même. Cette position exprime une attitude négative envers la technologie : tous les troubles et malheurs viennent d'elle, de la technologie. La technophobie est apparue l’année de la naissance de la technologie, et elle était associée à la capacité d’utiliser la technologie à la fois pour le bien et pour le mal. Des éléments de diabolisation de la technologie peuvent être trouvés dans les mythes primitifs ; dans des textes bibliques comme la Tour de Babel, le fruit défendu et la Chute ; dans la légende de Prométhée, qui vola le feu aux dieux et le donna aux hommes, pour lequel il fut maudit et puni ; à l’image du dieu boiteux Héphaïstos, qui, avec sa démarche maladroite, provoquait « le rire incontrôlable des dieux ». Le Dédale de Bacon, « un homme remarquablement talentueux mais vil », combinait en lui à la fois un bon et un mauvais génie. De même, la philosophie moderne en matière de technologie note à la fois les bons et les mauvais principes : la technologie est ambivalente ! D’une part, la technologie agit comme un facteur de libération de l’homme, d’autre part, elle est la cause de sa mort lorsqu’il ose franchir une ligne dangereuse dans sa relation avec les « dieux » (forces de la nature). Comme nous le voyons, cela s'avère être à la fois une bénédiction pour une personne et sa malédiction.

Dans l’Europe médiévale, la technophobie a reçu une forte impulsion sous la forme de l’idée, en réalité encouragée par l’Église, de l’origine satanique des innovations techniques. Les inventeurs, architectes, constructeurs et autres personnes talentueuses exerçant une véritable activité créatrice ont été ouvertement ou secrètement accusés de collusion avec le diable, à qui ils auraient vendu leur âme. Leur image généralisée reçoit ensuite une expression vivante dans le héros du livre "L'histoire du docteur Faustus" - un conte populaire allemand qui raconte l'histoire d'un sorcier qui a conclu une alliance avec le diable et a finalement été emmené avec lui. À l’ère de l’accumulation primitive du capital en Europe, la technophobie prend une nouvelle dimension, que l’on peut qualifier de socio-économique. La forme d'organisation du travail en guilde, courante à cette époque, ne pouvait survivre qu'en résistant au progrès technique, car le libre développement de la technologie conduirait inévitablement à la destruction et à la liquidation de la production traditionnelle. Par conséquent, les innovations techniques n'étaient autorisées que dans la mesure où elles ne constituaient pas une menace pour l'existence de l'organisation de l'atelier. Dans le cas contraire, ils étaient détruits ou interdits, et des représailles étaient exercées contre leurs créateurs. On sait, par exemple, que l'inventeur du magnétophone s'est noyé sur instruction des autorités municipales de Dantzig (aujourd'hui Gdansk) et que son appareil a été interdit pendant deux siècles. Aux États-Unis, la technophobie sous forme de phobie des machines s’est manifestée même pendant la Grande Dépression (années 1920-1930).

encyclopédiste français Jean-Jacques Rousseau (1712-1778) a écrit que la technologie, comme la science, révèle et actualise les secrets de la nature qui sont intrinsèquement mauvais pour l'homme. Il prévenait : « Sachez, une fois pour toutes, que la nature a voulu vous protéger de la science, tout comme une mère arrache une arme dangereuse des mains de son enfant. Tous les secrets qu'elle vous cache sont le mal dont elle vous protège. , et la difficulté d'étudier est une de ses bonnes actions considérables. Les gens sont gâtés, mais ils seraient encore pires s'ils avaient le malheur d'être nés savants" ("Emil, ou De l'éducation", 1762). Dans la philosophie moderne, le développement incontrôlé de la technologie est considéré comme l'un des principaux facteurs qui suppriment l'individualité humaine et menacent réellement son existence. Daniel Bell a prédit que "le train de l'histoire doit dérailler dans le futur, car, ayant enfin épuisé toutes les ressources énergétiques, l'humanité ne sera plus en mesure de résoudre les problèmes toujours croissants et de répondre au défi du futur". Alvin Toffler a fait valoir que les États-Unis, après avoir surmonté la crise de la deuxième vague, au tournant du 29e siècle. entre dans l'ère de la troisième vague : "... Nous vivons dans un monde qui a perdu le contrôle et se dirige avec confiance vers une catastrophe... seul le niveau de développement technologique post-industriel peut apporter une solution à tous les problèmes de la l'existence de l'humanité moderne et la poursuite du développement normal de la société humaine." L'auteur précise : "La société industrielle en décomposition dépend entièrement d'une information rapide, ciblée et efficace, de ressources énergétiques et d'un système monétaire fiable, que des structures obsolètes ne peuvent plus fournir"[XNUMX] .

La civilisation de la Première Vague récompensait certaines qualités et capacités, en particulier la force musculaire nue. La civilisation industrielle, ou civilisation de la deuxième vague, a payé diverses professions. La civilisation de la troisième vague paiera également plus pour certains traits et capacités que pour d'autres. Ces transitions d'une vague à l'autre s'accompagnent historiquement d'une concurrence internationale accrue, de dumping et de baisses inattendues de la production. À mesure que le niveau de technologie augmente, moins de travailleurs sont nécessaires pour faire fonctionner l'industrie, c'est-à-dire L'heure est au chômage technologique. Les exigences de qualification modernes nécessitent des informations professionnelles plus complexes. Comme cela prend du temps, une situation de chômage dit informationnel se crée. La restructuration des secteurs économiques lors de la transition de la deuxième vague à la troisième vague crée un chômage structurel en raison des transformations structurelles du processus technologique.

Le chômage massif, sans aucune forme de subvention ou autre forme de revenu, crée une dangereuse instabilité politique. Cette situation fait naître une volonté de soutenir et de préserver l'ancienne économie de la vague passée. Alvin Toffler dans son livre « Flashing with the Future » écrit à ce sujet : « Nous ne pouvons pas revenir en arrière. Nous devons mettre l'accent sur le développement du secteur de la troisième vague, même si cela crée une lutte sérieuse avec les industries et les syndicats de la deuxième vague. ." Les recommandations scientifiques de Toffler se réduisent aux points principaux suivants. Premièrement, il est nécessaire de repenser des termes tels que "lieu de travail", "emploi", "chômage". Deuxièmement, il est nécessaire de préparer les secteurs de base de la deuxième vague (télécommunications, biotechnologie, programmation, informatique, électronique, etc.) à une transition en douceur vers de nouvelles conditions de travail. Troisièmement, il est nécessaire de créer des conditions propices à la formation de ces industries de base. Quatrièmement, les efforts doivent porter sur l'invention et la diffusion des services qui sont la nouvelle base et la clé de l'emploi futur. Cinquièmement, l'apprentissage continu est essentiel. Il peut être un employeur majeur en soi, ainsi qu'un consommateur géant d'équipements vidéo, d'ordinateurs, de jeux, de films et d'autres produits qui fournissent également des emplois. Sixièmement, le système d'éducation de masse devrait être fondamentalement changé. Les écoles modernes forment trop de travailleurs de type usine pour des emplois qui n'existeront plus. Septièmement, il faut veiller à créer des emplois supplémentaires pour ceux qui ne trouveront pas de place dans le système de la troisième vague. Enfin, huitièmement, il est nécessaire d'assurer à chacun un revenu minimum garanti (par le biais des familles, des écoles, des entreprises, et d'autres canaux possibles). L'économie de la Troisième Vague doit se conformer aux exigences et aux principes de l'humanisme et de la morale.

Les futurologues occidentaux, qui s'emploient à prévoir les perspectives de développement de la société post-industrielle, estiment que la crise de la civilisation moderne n'est pas locale, mais universelle et que, de plus, ses sources ont une composante technique. Selon eux, l'humanité se précipite vers une catastrophe certaine et peut-être totale. La technique, basée uniquement sur la science et ses réalisations, a acquis le caractère d'un élément dominant et pratiquement indépendant, s'est transformée en un facteur anarchique absolument incontrôlable qui peut mettre fin à l'existence de l'humanité. Aujourd'hui, l'homme est confronté à une alternative : soit changer en tant qu'individu et en tant que membre de la communauté humaine, soit disparaître de la surface de la terre. Des concepts sont développés pour sauver au moins une partie de l'humanité, s'il est impossible de sauver tout le monde. La doctrine du catastrophisme écologique global est soutenue par des chercheurs tels que D. Meadows, J. Forrester, Paul Ehrlich et d'autres. Une forme moins dramatisée de technophobie peut être retrouvée dans les travaux de L. Mumford, J. Ellul, G. Marcuse, T. Adorno et d'autres chercheurs réputés en Occident. Selon eux, la voie du salut passe par un changement de la réalité sociale autoritaire, par la destruction de la « monotechnique » autoritaire, la destruction de la « mégamachine » (L. Mumford). Il existe également une telle recette: subordonner le développement ultérieur de la technologie au principe de rationalité et d'utilité, d'innocuité pour le présent et pour l'avenir, conformément à la devise de J. J. Rousseau "Retour à la nature!"

Theodor Adorno a écrit sur les coûts de la technicisation de la conscience. Selon lui, d'une part, le travail des techniciens est extrêmement strict et rationnel. D’un autre côté, ils souffrent particulièrement du caractère unilatéral, aride et inhumain de cette rationalité. Il est donc particulièrement important pour eux d’essayer de se débarrasser du « lest de la raison et de la critique » dans tous les domaines qui ne relèvent pas directement d’un tel travail technique. Cependant, ils ne doivent toujours pas accepter la division de l'existence en une moitié « raisonnable », associée au métier, et une moitié « irresponsable », associée au temps libre. I. Weizbaum, dans son livre « Sur le pouvoir de l'ordinateur et l'impuissance de l'esprit », a réfléchi sur la massification de l'irresponsabilité, sur la responsabilité en vertu du devoir, sur la nécessité de rendre compte de la responsabilité morale et éthique. A. Jonas, dans le livre "Le principe de responsabilité. Expérience de l'éthique pour une civilisation technologique", écrit sur la nécessité de passer d'une responsabilité orientée vers le passé à une auto-responsabilité tournée vers l'avenir, qui est déterminée par la capacité de contrôler et la capacité pour exercer le pouvoir. Selon Friedrich Rap, les progrès technologiques nécessitent un prix inévitable. Cette fatalité provoquée par la technologie peut être atténuée, mais ne peut pas être fondamentalement éliminée, car elle a sa propre base. Il convient de garder à l’esprit que la « natura non nisi parendo vincitur »[30] de Bacon est toujours valable aujourd’hui. Vraiment : la technologie est morte sans les personnes qui la maîtrisent...

Thème 13. Caractéristiques des disciplines scientifiques et techniques non classiques

13.1. Nature, spécificité et essence des connaissances scientifiques et techniques modernes

La détermination de la nature de la science est liée à la réponse à la question de savoir où elle commence. Selon K. Popper, "la science commence par des problèmes et continue ensuite à se développer à partir d'eux vers des théories concurrentes qui sont évaluées de manière critique". Mais H. G. Gadamer n'est pas d'accord avec un tel jugement. Il estime que les problèmes se résument à des avis alternatifs, à des questions trop générales. Pour l'herméneutique de Gadamer, la science commence par la question de sa signification sociale, c'est-à-dire avec la résolution d'une certaine situation qui révèle un manque d'information, quand il y a une question, mais il n'y a pas de réponse. Popper suggère d'aller à la vérité à partir des problèmes. La maîtrise de ce chemin nécessite la connaissance des règles de circulation : panneaux et modalités. V. A. Kanke, utilisant l'exemple de la pratique dentaire, l'explique comme suit: "si le mal de dents est intermittent et ne survient qu'en mangeant, cela indique la présence d'une carie carieuse dans la dent." Un mathématicien peut expliquer cette situation avec une formule. L'humaniste expliquera à l'aide d'un raisonnement logique : une douleur vive, sourde, insupportable, légèrement dérangeante. On peut en conclure que pour toutes les sciences, quelles que soient leurs spécificités, la même caractéristique est inhérente à un degré ou à un autre - l'unification du général et de l'individuel par le raisonnement scientifique.

Un autre raisonnement est également possible : hier à la discothèque c'était aussi bien que jamais, c'est-à-dire nous parlons d'un état qui est unique, inimitable et qui n'a apparemment rien à voir avec le général. On peut objecter : le locuteur compare en fait ses états émotionnels qui se sont produits à des moments différents, et ici il ne peut se passer de souligner le général et sa gradation (« comme jamais auparavant »). Le particulier est connu sur fond de général ! Une telle équation promet de grands avantages, car de nombreux phénomènes similaires et similaires sont couverts par un seul schéma.

Selon le nominaliste, qui nie la signification ontologique des concepts généraux (universels), la postulation de la réalité du général repose sur une méconnaissance du fonctionnement de l'abstraction de l'identification. Pour défendre sa position, il peut se référer à l'écart entre les calculs théoriques et les données expérimentales - c'est la nature de l'idéalisation mentale qui déforme la réalité. Les idéalisations sont, par exemple, les concepts de point, de corps absolument rigide, de gaz parfait et de communisme. En réalité, il n'y a pas d'objets ponctuels, de corps absolument solides, de communisme idéal. Mais à mesure que les idéalisations scientifiques sont utilisées de manière productive, des questions « maudites » difficiles surgissent. Comprendre l'essence de la reproduction idéalisée du phénomène étudié s'est avéré être un problème insoluble. Dans l'idéalisation, il y a une part de grossissement de la réalité, bien que l'idéalisation en science contribue au développement de connaissances théoriques précises. L'idéalisation est la construction mentale de concepts sur des objets qui n'existent pas et ne sont pas réalisables dans la réalité, mais ceux pour lesquels il existe des prototypes dans le monde réel. Un signe d'idéalisation scientifique, qui la distingue de la fantaisie stérile, est que les objets idéalisés qui y sont générés, sous certaines conditions, sont interprétés en termes d'objets non idéologisés (objets réels). Le problème de l'idéalisation en science se pose depuis le l'époque de John Locke, qui aimait l'abstraction. V. V. Kudryavtsev explique: "Si un objet abstrait a au moins les propriétés qui se reflètent dans son concept, alors un objet idéalisé n'a que ces propriétés." V. A. Kanke estime que "l'idéalisation scientifique est une forme de singularisation du général, et, ce qui est également essentiel, dans une certaine gamme d'abstractions... L'idéalisation ne grossit ni même ne "lave" la réalité, mais permet de la mettre en évidence. .. aspects communs » [31].

Comme critère de caractère scientifique, V.V. Ilyin considère l'ensemble de conditions suivant : dans la science moderne, « le résultat obtenu sur la base d'une procédure constructive, d'une expérience mathématique, d'une expérience naturelle et de l'ordonnancement des informations scientifiques est considéré comme vraiment précis. et rigoureux »[32]. Il est à noter que la tâche principale de la science est d'obtenir des connaissances objectives et socialement utiles. Le plan cognitif de la science est un travail mental basé sur des activités de recherche, expérimentales, techniques et analytiques. L'activité scientifique se caractérise par les caractéristiques suivantes :

1) l'universalité - elle procède comme une coopération culturelle générale des contemporains et des prédécesseurs ;

2) unicité - les procédures innovantes de synthèse en expansion sont uniques, exclusives, non reproductibles. La pensée naît non pas de la pensée, mais de la sphère motivée. La créativité, l'imagination n'ont pas de règles, elles ne contiennent que des relents d'histoire ;

3) productivité sans valeur - les actions créatives ne peuvent pas se voir attribuer des équivalents de coût ;

4) personnification - la production spirituelle libre est toujours personnelle ; les techniques créatives sont individuelles; la « personnalité collective » en science surgit dans des contextes très routiniers de justification et de certification ;

5) discipline - l'éthos civil régule la science en tant qu'institution sociale, l'éthos épistémologique régule la science en tant que recherche ;

6) démocratie - protection de la critique et de la liberté de pensée ;

7) communauté - la créativité est co-création, la connaissance se cristallise dans une variété de contextes de communication, de mise en sens (partenariat, dialogue, discussion), axée sur une conscience digne, égale et égale. Une sphère telle que la "république des savants" est constituée de toutes sortes de collègues "invisibles", salons, loges, associations, laboratoires, départements, rédactions, et autres petites et grandes formes réglementant l'échange facile des connaissances[33].

La spécificité des disciplines scientifiques et techniques est encore au stade de clarification. Ils ont une relative indépendance par rapport aux sciences naturelles, même s'ils sont parfois identifiés. Les sciences techniques ne sont pas une continuation des sciences naturelles. Les méthodes des sciences naturelles et des sciences techniques diffèrent considérablement. Les sciences techniques fournissent une image des actions humaines, la construction d'artefacts techniques et garantissent l'utilisation efficace de ces artefacts conformément aux préférences humaines. Les sciences naturelles répondent à la question de savoir ce qu'est la nature. Les sciences techniques explorent la question de ce qu'une personne peut fabriquer à partir de matériaux naturels afin d'alléger son sort. En sciences naturelles, la rationalité technique est la détermination, qui se caractérise par un ordre pragmatique.

Le philosophe allemand de la technologie Günter Ropol, à la recherche d'une réponse à la question de savoir si la technologie est un problème philosophique, s'est tourné vers l'héritage créatif de son compatriote Immanuel Kant. Comme vous le savez, Kant, dans son introduction à la Logique, a soutenu que le domaine de la philosophie est composé de quatre questions auxquelles il doit répondre :

1) Que puis-je savoir ?

2) que dois-je faire ?

3) que puis-je espérer ?

4) Qu'est-ce qu'une personne ?

La philosophie moderne, écrit Ropol'l, ne justifie son nom que si et quand elle inclut aussi la technologie dans la sphère de ses réflexions. Et les problèmes de la technologie peuvent être considérés de manière très fructueuse pour répondre aux questions de Kant. Alors...

Qu'est ce que je sais? Cette question s’adresse au problème de la vérité, à la connaissance qui, en tant que reflet du monde, est le résultat de la perception contemplative : « comprendre, c’est produire » (cela disait déjà sous Descartes). Le problème, apparemment, repose sur la connaissance ! L'ordre pragmatique agit comme une conception étape par étape qui nous rapproche de l'objectif, qui peut être soit la théorie de la fabrication d'un artefact technique, soit la théorie de la garantie de son fonctionnement efficace et optimal. Les sciences naturelles sont construites selon les lois de la vérité correspondante, les sciences techniques - selon les lois de l'efficacité et de l'utilité. Dans les sciences techniques, plutôt que dans les sciences naturelles, la méthode pragmatique domine. Malheureusement, cette circonstance est souvent mal comprise.

Que devrais-je faire? La réponse à cette question est liée à la possibilité d'une justification morale, à une légitimation. La technologie, comme vous le savez, peut aussi devenir une source de mal, pas seulement de bien. Il s'agit de moralité, de la responsabilité de l'homme envers l'humanité. Il existe de nombreuses possibilités dans la technologie qui devraient être reléguées aux oubliettes. Ignorer les spécificités des sciences techniques ne passe pas sans laisser de traces, ingénieurs et techniciens se transforment en physiciens, le domaine technique va s'appauvrir. Dans les sciences techniques, ils ne se limitent jamais à décrire l'un ou l'autre artefact technique ou chaînes technologiques, ici l'intérêt pour l'utilité, l'efficacité, la fiabilité, la sécurité et l'opportunité de poursuivre le fonctionnement des dispositifs techniques domine invariablement.

Que puis-je espérer ? Il fut un temps où ils avaient confiance en Dieu. Mais à notre époque, cela ne suffit pas. Inutile de rejeter notre responsabilité sur la providence divine alors que le développement mal maîtrisé de la technologie continue de polluer la terre, l'air et l'eau, toute notre planète, élargissant le trou d'ozone, provoquant un réchauffement climatique avec toutes les tristes conséquences qui en découlent. Les avancées technologiques sont à couper le souffle ! Ils menacent également la souveraineté humaine. Il s'avère que les espoirs humains peuvent être justifiés avec l'aide de la technologie, mais vous pouvez également échouer avec l'aide de la même technologie.

Qu'est-ce qu'une personne ? La réponse à cette question est liée aux trois précédentes. Il vise à la compréhension de soi d'une personne, c'est-à-dire sur sa conscience de soi, dans laquelle le phénomène de responsabilité est implicitement présent. Dans cette conscience de soi et cette compréhension de soi, une couche très mince appartient à la conscience de soi technique. Ceci s'applique également à la moralité, à la conscience de soi de collectifs entiers, de nations, de peuples. Le champ des facteurs moraux tend à s'étendre. Comme on peut le voir, la philosophie de la technologie n'est pas aliénée de ses aspects anthropologiques.

13.2. Caractéristiques socio-philosophiques de la recherche théorique dans les disciplines scientifiques et techniques

Le système « science - technologie » comprend l'ensemble des disciplines scientifiques fondamentales, les connaissances sur les applications directes de leurs résultats, l'ensemble des sciences techniques et enfin la technologie elle-même. Les disciplines techniques comprennent initialement, par exemple, l'électrotechnique, les mathématiques, la théorie des mécanismes et des machines, etc. L'aspect technique se retrouve également dans les sciences qui n'avaient auparavant aucune application technique, en particulier dans les sciences biologiques : dans les travaux sur le génie génétique, sur le réarrangement de la cellule d'un organisme vivant et un certain nombre d'autres études, dans le développement de la biotechnologie. L'équipement technique des sciences géologiques s'est fortement développé. Si dans le passé elles visaient principalement à étudier la surface de la terre et que leur application pratique se limitait à la recherche de minéraux, aujourd'hui le complexe des sciences géologiques est étroitement lié aux problèmes de l'évolution de la nature sous l'influence de l'activité humaine. Des branches de la géologie telles que la géochimie, la géophysique, etc., sont directement utilisées dans la transformation active de la nature et dans le développement de moyens de surmonter les conséquences négatives de l'impact humain sur la nature.

J. Ortega y Gasset notait à juste titre l'existence d'un lien entre la technologie et la nature créatrice transformatrice de l'homme : « Les actions techniques n'impliquent nullement la satisfaction directe des besoins que la nature ou les circonstances font éprouver à une personne. Le but des actions techniques est la transformation des circonstances conduisant, si possible, à une réduction significative du rôle du hasard, à la destruction des besoins et des efforts associés à leur satisfaction" [34] . L'homme adapte la nature à l'aide de la technologie.

La science dans son essence la plus profonde est un moyen de maîtriser le monde. Elle aspire à la vérité. Et la vérité, comme l'écrivait Aristote, est « la correspondance de notre connaissance des choses avec les choses elles-mêmes ». Connaître la vérité n'est pas une fin en soi ! Il devient un tremplin vers la création de dispositifs techniques. Pour devenir le maître de la nature, il faut la connaître. La nature est conquise en lui obéissant.

Il convient de noter que la période de temps entre le moment de faire une découverte théorique et la création de nouveaux dispositifs techniques sur sa base a une tendance constante à diminuer. Par exemple, le physicien anglais, atomiste Ernest Rutherford (1871-1937) pensait que ses recherches étaient de nature purement cognitive et qu'il ne fallait pas en attendre des résultats pratiques. En 1933, il disait : « Quiconque s'attend à obtenir de l'énergie à partir de la transformation d'atomes dit n'importe quoi. Mais dix ans plus tard, la production d'énergie atomique a été transférée sur un plan pratique ! Le découvreur, apparemment, peut ne pas être conscient des conséquences de sa découverte. Réduire le temps entre l'invention et sa mise en œuvre actualise le problème de la responsabilité sociale d'un scientifique.

Dans la recherche théorique sur la philosophie de la technologie, il y a un intérêt à identifier les différences entre la science et la technologie. Il a été noté que toutes les branches de la technologie ne sont pas proches de la science, même si l'existence d'une relation est évidente. En particulier, il y a un débat sur la définition du statut philosophique et scientifique de la biologie comme modèle de technologie.

Les discussions sur la responsabilité sociale de la science ne s'arrêtent pas non plus. À cet égard, l'approche raisonnée des problèmes sociaux, démontrée par Albert Einstein, reste pertinente. Dans les années 1930 il écrivit à son ami le physicien Max von Laue : "Je ne partage pas votre point de vue selon lequel un homme de science dans les affaires politiques, c'est-à-dire humaines, au sens le plus large devrait se taire. C'est dans les conditions de l'Allemagne que vous voyez où mène une telle retenue. Cela ne manque-t-il pas de sens des responsabilités ? Où serions-nous maintenant si des gens comme Giordano Bruno, Spinoza, Voltaire, Humboldt pensaient et agissaient ainsi ? Le développement de la science a généré et générera à plusieurs reprises des problèmes éthiques de responsabilité. La puissance technologique de l'homme, qui s'est développée à l'infini, peut conduire à un tel risque que de nouvelles visions éthiques sur le problème de l'interaction entre l'homme et la nature seront nécessaires. Par exemple, le philosophe allemand de la technologie Hans Lenk, considérant une telle évolution de la situation, propose de passer au concept de responsabilité préventive en mettant l'accent sur l'auto-responsabilité comme capacité à contrôler la situation.

13.3. Développement d'idées systémiques et cybernétiques sur la technologie

Comme vous le savez, un système est un objet intégral composé d'éléments qui sont en relations mutuelles (voir section 3.2). Philosophe et sociologue anglais, l'un des fondateurs du positivisme Herbert Spencer (1820-1903) ont utilisé des analogies fonctionnelles entre les processus d'un organisme et la société. Considérant que "la société est un organisme", il partait de l'interconnexion organique des parties et de l'indépendance relative du tout et des parties tant dans l'organisme que dans la société. Du fait de son analogie constante, il arrive à la conclusion que le progrès de la différenciation structurelle s'accompagne dans les deux cas d'une différenciation progressive des fonctions. Les idées de Spencer se sont développées dans le structuralisme (A. R. Radcliffe-Brown, C. Levi-Strauss, M. Foucault, J. Lacan, etc.) et dans le fonctionnalisme (E. Durkheim, B. K. Malinovsky, R. Merton).

Si le structuralisme analyse la structure comme une caractéristique invariante des relations avec le système (la fonctionnalité des éléments n'agit que comme un préalable préalable), alors la fonctionnalité repose sur la considération d'une partie de la structure, en fonction de sa signification fonctionnelle. L'émergence d'une théorie générale des systèmes (le terme a été introduit par L. von Bertalanffy en 1933) conduit à la création de prérequis méthodologiques pour la formation d'un nouveau système de concepts ("système", "tout", "intégrité", "élément", "structure", "fonction", "fonctionnement", "comportement intentionnel", "objectif du système", "rétroaction", "effet intégral", "équilibre", "adaptabilité"), pour lesquels la principale distinction est non plus « partie - tout », mais « le système est l'environnement ». L'adoption d'une nouvelle distinction en théorie des systèmes conduit au fait que les problèmes des systèmes ouverts, en particulier leur différenciation externe et la conservation des frontières, deviennent les principaux. Dans le cadre de la théorie générale des systèmes, un nouveau domaine scientifique apparaît - la cybernétique, conçue pour étudier le comportement des systèmes ouverts avec rétroaction. Les principes de base de la théorie générale des systèmes et les idées cybernétiques ont trouvé la plus grande expression dans la structure du fonctionnalisme du sociologue américain Talcott Parsons (1902-1979).

Selon Parsons, un système est une manière universelle d'organiser la vie sociale. Tout système social a une base physique, dans le rôle de laquelle les individus agissent. Ils remplissent certaines fonctions, dans le processus d'interaction qu'ils organisent et combinent pour former des collectifs, et ces derniers, à leur tour, sont régis selon des ordres toujours plus élevés de normes généralisées et institutionnalisées. Au sommet du système se trouve la société en tant que système unique, organisé en tant que collectif politique intégral et institutionnalisé sur la base d'un système de valeurs unique ou plus ou moins intégré. En incluant dans le système des normes et des valeurs standardisées, ainsi que les activités des individus sous la forme de rôles prescrits, le chercheur est en mesure de considérer l'activité individuelle comme déterminée par les caractéristiques du système. Les structures apparaissent comme le produit d'interactions sociales et sont réalisées dans les activités des individus en tant qu'acteurs.

Le fonctionnalisme structurel met l'accent sur l'intégration des individus dans le système social et la subordination de leur intégrité fonctionnelle afin de maintenir son auto-préservation équilibrée et durable. Par conséquent, l'analyse d'un système social est associée principalement à l'identification des exigences fonctionnelles de base qui confèrent à l'ensemble des éléments la propriété d'intégrité. Parsons est parti de quatre conditions fonctionnelles : adaptation, orientation vers un but, intégration, maintien de l'échantillon. Le respect de ces conditions est un gage de stabilité du système.

Avec le développement de la cybernétique de second ordre, l'autopoïèse a été mise en avant comme une caractéristique fondamentale du système, c'est-à-dire la capacité d'un système à se reproduire. L'autopoïèse met l'accent sur l'autonomie des systèmes vivants dans leur relation avec l'environnement. De tels systèmes se caractérisent par leur capacité à s'auto-renouveler constamment. Puisqu'ils n'exécutent que les fonctions requises par la structure du système lui-même, ils sont généralement appelés autoréférentiels. La principale différence pour les systèmes autoréférentiels autopoïétiques est la différence d'identité. En particulier, le sociologue et philosophe allemand Niklas Luhmann (1927-1998), à partir de la théorie biologique de l'autoréférence de U. Maturan et F. Varela et de la théorie mathématique de l'information, ont développé la théorie des systèmes autoréférentiels. Selon Luhmann, les systèmes sociaux, contrairement aux systèmes physico-chimiques et biologiques, sont construits sur la base du sens. Et ce dernier est compris comme le traitement des différences. Les systèmes sociaux sont constitués de communications et se constituent par leur sens, par conséquent, le concept de communication doit être mis à la base de la production et de l'auto-reproduction de la société. La société, considérée comme communication sociale, comme flux de messages auto-reproducteurs, reflète les spécificités du système social, qui semble s'auto-reproduire et s'auto-observer. Les processus irréversibles sont la source de l'ordre. Dans des conditions hautement non équilibrées, une transition du désordre, du chaos, à l'ordre peut avoir lieu. De nouveaux états dynamiques de la matière peuvent apparaître, reflétant l'interaction d'un système donné avec l'environnement. Ilya Prigogine a qualifié ces nouvelles structures de dissipatives, car leur stabilité repose sur la dissipation de l'énergie et de la matière.

Les théories de la dynamique hors équilibre et de la synergétique établissent un nouveau paradigme pour l'évolution d'un système, surmontant le principe thermodynamique du glissement progressif vers l'entropie. Du point de vue de ce nouveau paradigme, l'ordre, l'équilibre et la stabilité du système sont obtenus par des processus de non-équilibre dynamiques constants. L'optimisme cybernétique repose sur un certain nombre d'hypothèses :

a) ontologique - un comportement raisonnable peut être représenté en termes d'un ensemble d'éléments indépendants bien définis ;

b) épistémologique - les gens agissent selon des règles heuristiques, effectuant inconsciemment une certaine séquence d'opérations qui peuvent être formalisées et reproduites sur un ordinateur ;

c) psychotechnique - les manifestations de l'esprit et de l'âme sont des épiphénomènes de l'expérience de processus d'information sémantique complètement codés et reproductibles ;

d) biologique-évolutif - le cerveau humain est un dispositif de contrôle, un grand ordinateur pour le traitement de l'information. Grâce à une longue évolution, le cerveau a reçu un certain nombre d'avantages, tels que la continuité, l'associativité, la pensée systémique, mais ils peuvent également être techniquement mis en œuvre.

Analyse critique philosophique et intra-scientifique des attitudes évoquées ci-dessus dans les années 1980-1990. conduit à une réduction significative des attentes optimistes. Ainsi, dans un des théorèmes de J. von Neumann (1903-1957) il est énoncé qu'il existe un seuil de complexité, au-dessus duquel tout modèle d'un système de commande est évidemment plus compliqué que le système modélisé. Par conséquent, la construction d'un tel modèle perd tout son sens. Il existe également des arguments extérieurs à la science visant à critiquer les hypothèses ci-dessus de l'optimisme cybernétique sur la pensée et l'activité humaines (aspects de la psychologie, de l'éthique, de l'idéologie et de la science politique). Au milieu du XXe siècle. les fondateurs de la cybernétique ont soulevé la question de l'autonomie de la technologie cybernétique, la possibilité de violer l'autonomie de la volonté humaine, le déterminisme de la vie humaine par l'intelligence artificielle. Au même moment, le sociologue américain, prix Nobel, Herbert Simon (né en 1916) dans sa "Science de l'artificiel" (1969) a montré les limites de la rationalité cybernétique. Il a prouvé que les questions philosophiques de la cybernétique ne sont qu'un cas particulier de la philosophie de la technique.

De l'histoire du développement de la technologie, nous savons qu'elle est passée par trois étapes - de l'imitation des formes naturelles, en passant par la conception des organes du corps humain, à la maîtrise des processus d'information et à la construction cybernétique de modèles de la pensée et le psychisme. À l'avenir, la cybernétique appartiendra peut-être, comme l'écrit F. Dessauer, à résoudre des problèmes plus fondamentaux qui font avancer le monde vers une société de l'information.

Thème 14. Évaluation sociale de la technologie en tant que philosophie appliquée de la technologie

14.1. La politique scientifique et technologique et le problème de la gestion du progrès scientifique et technologique

Le potentiel scientifique et sa structure. Les opportunités réelles dont dispose la société pour mener des recherches scientifiques et utiliser leurs résultats dans la politique sociale constituent son potentiel scientifique. La communauté mondiale tente périodiquement de déterminer le niveau de potentiel scientifique dans le monde dans son ensemble et dans chaque État. Ainsi, par exemple, dans les années 1960. Dans les documents de l'Organisation européenne de coopération et de développement économiques (OCDE) et dans les documents de l'UNESCO, des tentatives similaires ont été faites pour prendre en compte les ressources scientifiques des pays. Une méthode de calcul a également été développée. Conformément à celui-ci, le potentiel scientifique comprend l'ensemble des ressources dont un pays dispose souverainement pour les découvertes scientifiques, ainsi que pour résoudre les problèmes nationaux et internationaux posés par la science. Les critères d'évaluation du potentiel scientifique sont des indicateurs et des réalisations quantitatives et qualitatives. Étudier le potentiel scientifique de la société d’un point de vue philosophique est une étape vers l’approfondissement de la réflexion socio-philosophique de la science. La philosophie en a besoin pour une connaissance plus complète de la science et le développement de formes plus avancées de gestion du progrès scientifique et technologique. La science est l'une des ressources sociales importantes de la société, la connaissance scientifique est sa ressource d'information. Mais le savoir a tendance à vieillir. La présence de connaissances actuelles (contexte) affecte directement l'état de leur potentiel, c'est pourquoi la science a tendance à avoir une sorte de « réserve » - des secrets (pour les mauvais jours !). Cela s'applique principalement à la recherche fondamentale.

Les porteurs du potentiel scientifique sont les personnes, le personnel scientifique, ainsi que le système de leur formation. La deuxième composante du potentiel scientifique est constituée par les éléments matériels et matériels de la science, qui en constituent le fondement matériel : bâtiments, équipements, services auxiliaires, instruments, ordinateurs et informatique, sans lesquels la science moderne est impensable. Le troisième élément du potentiel scientifique est l'argent, c'est-à-dire le montant du financement. Le quatrième facteur «travaillant» pour maintenir le potentiel de la science est une planification claire, la détermination de la direction actuelle du développement de la science, les facteurs organisationnels, etc. Un rôle particulier dans la science est joué par le support informationnel de l'activité scientifique, son organisation et sa gestion.

L'importance du potentiel scientifique pour le développement de la société. Parfois, il y a des difficultés temporaires dans la société, une baisse de la production, etc. Pour surmonter ces phénomènes négatifs dans différents pays, il existe mes propres recettes éprouvées empiriquement. Par exemple, en 1965-1968. Au Japon, la tâche d'éduquer les individus créatifs a été mise en avant. Les experts gouvernementaux de ces années ont fait valoir que pour que le Japon maintienne des taux de croissance élevés, il fallait créer un système d'enseignement technique qui permette de cultiver des capacités créatives au lieu de cultiver la capacité de percevoir ou de copier les réalisations techniques d'autres pays. On croyait que l'enseignement supérieur à cet égard avait ses propres spécificités, qui ne peuvent être ignorées dans le processus éducatif et pédagogique. Une partie importante du sujet de l'enseignement supérieur a un contenu abstrait d'un niveau spirituel, intellectuel et culturel élevé et le plus élevé. D'un tel "sujet" il est difficile (et parfois impossible) d'attendre un effet pratique immédiat et un retour matériel. Il n'est possible de remplacer l'intérêt matériel par un intérêt spirituel et émotionnel que si, en plus d'un niveau suffisamment élevé de culture générale et spéciale, les étudiants ont également un niveau approprié de respect pour la culture même de l'humanité. Et cela, à son tour, est impossible sans un développement approprié ("remplir la lampe") et une compréhension ("allumer la lampe") du phénomène de la culture en tant que phénomène systémique non linéaire super complexe. La réalisation de cet objectif précis est servie par la philosophie moderne de la technologie en tant que discipline académique, qui comprend, entre autres, le concept de culturologie synergique, qui est activement développé dans le système des universités des pays occidentaux.

économiste anglais Friedrich von Hayek (1898-1993) a écrit : "La plupart des étapes de l'évolution de la culture ont été faites par des individus qui ont rompu avec les règles traditionnelles et introduit de nouvelles formes de comportement. Ils ne l'ont pas fait parce qu'ils ont compris l'avantage de la nouveauté. En fait, les nouvelles formes n'étaient fixées que si les groupes qui les adoptaient prospéraient et se développaient avant les autres"[35] . Hayek croyait que le processus civilisationnel n'est possible que par la subordination des instincts animaux innés à des coutumes irrationnelles, des mèmes inconsciemment et spontanément apparus, à la suite desquels des groupes humains ordonnés de plus en plus grands se forment.

Les objectifs prometteurs de l'État comprennent l'amélioration de la qualité de vie de la population, la garantie des droits et libertés de l'individu, la justice sociale, le progrès social et culturel dans la société dans son ensemble. Il convient de noter qu'en résolvant ces problèmes, l'État améliore constamment les formes d'administration publique, ce qui signifie la création des conditions les plus favorables à la réalisation des droits humains et civils. Ces problèmes sont résolus en rapprochant le plus possible le pouvoir d'une personne grâce à l'utilisation des moyens de communication modernes. L'envers de cette politique sociale est la "disponibilité" d'une personne pour le pouvoir même dans les régions les plus éloignées territorialement des structures de pouvoir.

La pratique de la gestion dans le système du processus scientifique et technique rend pertinent le concept d'ingénierie système de Bogdanov. Philosophe domestique et homme politique A. A. Bogdanov (Malinovsky) (1873-1928) est devenu célèbre grâce à la critique que V. I. Lénine lui a fait subir dans le livre "Matérialisme et empirio-criticisme" (un manuel pendant les années du pouvoir soviétique). Même au début du XXe siècle. Bogdanov a prédit le développement de la technologie dans le sens de la cybernétique et de l'ingénierie des systèmes (selon Bogdanov - "tectologie"), qui prévoit le transfert des règles de gestion de la technologie à la gestion de la société. Cette tendance, croyait-on, conduirait finalement à l'abolition de l'État et de la politique, à la suite de quoi la technocratie gagnerait, sans arbitraire bureaucratique, sans bureaucratie et sans aventurisme. Il y a une différence entre la cybernétique et la technocratie. Elle consiste dans le fait que sous la technocratie, l'administration d'État est assimilée au fonctionnement d'une machine, avec l'aliénation subséquente des normes juridiques et morales. Bien que certains éléments de la gestion technocratique ne contredisent pas le principe d'efficacité, l'inconvénient de ce type de gestion est l'élimination de l'autonomie, l'effacement des niveaux de gestion, l'autonomie, l'élection, l'opinion publique, qui sont liés à la institution de la démocratie. Ces problèmes ont un caractère paneuropéen, pour ne pas dire universel. De même, ce sont aussi les problèmes de la Russie moderne.

14.2. Éthique de l'ingénieur et responsabilité du scientifique

L'éthique est le concept d'une culture partagée ; une des branches les plus anciennes de la philosophie. Il réglemente les devoirs mutuels des personnes les unes par rapport aux autres. De l'éthique, les individus reçoivent des instructions morales sur la façon de vivre, comment être guidé, ce qu'il faut rechercher (voir aussi la section 7.5). La définition professionnelle de l'éthique appliquée à la profession d'ingénieur signifie que rien d'humain n'est étranger à un ingénieur. Le terme « éthique » a été introduit par Aristote dans son livre fondamental « L'éthique à Nicomaque », signifiant que le mot grec ethika signifie disposition, caractère, vertus humaines liées au caractère d'une personne, à ses qualités spirituelles. En classant les sciences, Aristote place l'éthique entre la politique et la psychologie. Son éthique contenait des instructions morales, des enseignements pour diverses occasions. Ainsi, le but de l'éthique n'est pas seulement la connaissance, mais aussi les actions : elle est étudiée non seulement pour la connaissance, mais aussi pour la vertu.

En tant que philosophie de la morale, l'éthique a parcouru un long chemin dans son développement. Les penseurs de tous les temps ont essayé d'élargir son contenu. Par exemple, Immanuel Kant a mis l'accent sur les concepts de devoir, d'obligation et de responsabilité. Au fur et à mesure que l'homme pénètre les secrets de la nature, sa responsabilité dans la possession de ces secrets augmente. Avec l'interaction synergique de nombreuses personnes, il devient difficile de personnifier la responsabilité dans le cas où le développement de la technologie dépasse le seuil de responsabilité. Par exemple, qui est responsable des pluies acides ? Pour le réchauffement climatique ? Fonte des calottes polaires, élévation du niveau de la mer et inondations associées ? Quand tout le monde est responsable de tout, quand chaque individu est responsable du monde entier, alors personne n'est responsable de rien.

Que veut dire "être responsable" ? Cela signifie - être prêt ou être obligé de donner une réponse à quelqu'un et pour quelque chose. La recherche en philosophie du droit note la responsabilité causale des actions en vertu du devoir, selon laquelle quelqu'un est responsable d'un état de choses indésirable ou préjudiciable. Il y a la responsabilité de la capacité à accomplir une tâche ou un rôle, la capacité à résoudre un problème, à comprendre, planifier, mettre en œuvre, évaluer des événements, à posséder les qualités cognitives et managériales appropriées, les qualifications et, enfin, la responsabilité envers les autorités compétentes. La responsabilité morale est toujours individuelle, elle ne s'inscrit pas dans un cadre strict, elle n'est pas contrôlée par des normes extérieures. Le porteur de la responsabilité morale peut être un individu, il ne peut être attribué de manière significative à des associations et à des organisations formelles, bien qu'il ne soit pas isolé du collectif. L'éthique pointe généralement vers la conscience, devant laquelle une personne détient une réponse - le dernier recours pour la responsabilité. Mais sa nature privée rend difficile son traitement intersubjectif.

La responsabilité a des dimensions éthiques. C'est quelque chose de plus que la voix de la conscience en tant que "fait de la raison morale" (I. Kant). Par exemple, dans l'éthique d'un employé du ministère des Situations d'urgence (MES), les idées de relativisme, de pluralisme et de tolérance dans le système "personnalité - société", "bien - mal" sont affirmées. La définition même de l'objectif d'un collectif paramilitaire présuppose l'adaptation mutuelle des cultures civilisationnelles générales et professionnelles spécifiques qui restent pertinentes dans un monde en mutation. Par rapport à la culture professionnelle d'un employé du ministère des Situations d'urgence, des qualités telles que la justice, le patriotisme, la capacité à reconnaître la priorité du commun sur le personnel et l'idée de service qui en découle, la miséricorde, la capacité empathie, tolérance envers les autres personnes, peuples, cultures, la priorité du principe spirituel et moral sur le matériel et pragmatique. Ces valeurs peuvent être comparées aux valeurs établies de la civilisation mondiale, qui incluent l'humanisme et l'anthropocentrisme, la liberté de conscience, la liberté individuelle, les droits de l'homme, le respect de la propriété, le bien-être matériel, etc. Le fait est que dans l'aspect global, non seulement les valeurs de la civilisation occidentale, mais aussi les valeurs de la culture russe et les cultures des autres peuples de Russie peuvent et doivent être demandées. Dans le nouveau système de valeurs, les priorités devraient être le développement durable, une hygiène de vie saine, l'intelligence, le talent naturel, le professionnalisme, le compromis et le partenariat social, l'honnêteté et l'engagement, la confiance mutuelle, la tolérance et le pluralisme, le respect des lois, etc.

Dans le contexte des réalités du monde moderne, de tels jugements peuvent bien sûr être perçus comme utopiques, mais il n'y a pas d'alternative raisonnable à cette approche. Et si nous reconnaissons la possibilité d'une influence mentale sur le processus évolutif, nous ne pouvons manquer de voir le rôle énorme que l'enseignement supérieur spécial est appelé à jouer dans la formation d'un nouveau système de valeurs. Dans son développement, elle est confrontée à une croissance exorbitante et à la complication de l'environnement technologique et informationnel. La croissance rapide du système éducatif, sa transformation en l'une des plus vastes sphères de l'activité humaine, la séparation de l'éducation de ses racines historiques, l'immaturité de la politique socioculturelle dans le domaine de l'éducation - tout cela est une maladie de fois.

Les problèmes d'éthique des ingénieurs renvoient aux contradictions de l'enseignement supérieur. Sa formation est directement liée à la formation de l'intelligentsia scientifique soviétique. Tout ce qui est arrivé à l'intelligentsia scientifique en Russie à l'époque soviétique s'inscrit dans le concept de formation, pas de formation (dans ce cas, cela signifie « pas encore présent », pas formé). Pendant les années du pouvoir soviétique, comme on le sait, l'intelligentsia scientifique, subissant l'impact de la modernisation, s'est trouvée plus d'une fois sur le point de perdre son identité, son identité. Les scientifiques étaient considérés comme les créateurs de l'idéologie dominante de la classe ouvrière, mais en même temps ils étaient dirigés par la classe ouvrière, sans voix propre, purgeant souvent leur peine avant de commettre un crime. Ils étaient à la fois dans la position d'un spécialiste et d'un ravageur, d'un communiste et d'un ennemi du peuple, d'un scientifique soviétique et d'un cosmopolite déraciné, d'un mitchourinien et d'un darwiniste. Les exigences dictées par la modernisation ne reconnaissaient la dépendance qu'à l'institut des sciences, mais l'éthique de l'ingénierie était supprimée par l'ignorance de «l'hégémon». Les conflits surviennent plus souvent au niveau individuel, mais ne sont pas rares non plus au niveau collectif : rappelons le sort des généticiens russes dans les années 1930-1940, des philosophes (années 1950-1970), des sociologues (années 1920-1930 ; années 1960). . ). Tout cela était avec l'intelligentsia soviétique, et c'était tout récemment. Et il ne semble pas y avoir de retour à cela.

Il n’y a pas de frontière infranchissable entre l’éthique civile et l’éthique de l’ingénierie, puisque les ingénieurs sont recrutés parmi les citoyens. Il n'existe pas encore de règles écrites d'éthique de l'ingénierie (peut-être parce qu'ils n'ont pas encore eu le temps de les rédiger). Mais le programme du cours de philosophie de la technologie présuppose l'existence de normes éthiques pour l'activité d'ingénierie. Et ça existe vraiment. Comme vous le savez, le livre de la nature est écrit dans un langage précis et économique : le langage des mathématiques. Ainsi, la mécanique révèle le principe de moindre action ou de chemin le plus court. Le principe du « rasoir d’Occam » [36] est confirmé, selon lequel le nombre d’éléments pour construire une théorie doit être minimal. Le manuel de G. G. Skvornyakov-Pisarev « Science statistique ou mécanique » (1722) définit le contenu des concepts introduits dans l'usage quotidien : invention, corps, noyau, noix, etc., et l'unité des aspects verbaux et modaux de la pensée et l'action révèle des connexions essentielles avec l'objet.

On peut également parler d'un processus plus complexe de formation d'un type particulier d'homme moderne avec une orientation scientifique et technique. C'est là que se pose la question de la théorie des deux cultures, technique et humanitaire. Actuellement, l’impact du développement technologique sur l’homme et son mode de vie est moins perceptible que son impact sur la nature. C’est néanmoins significatif. Les changements incontrôlés dans la nature sont devenus l'un des sujets les plus étudiés lorsqu'il est devenu évident que l'homme et la nature n'avaient pas le temps de s'adapter au développement rapide de la civilisation technique. De manière inattendue pour beaucoup, il s'est avéré que l'activité d'ingénierie, les connaissances en sciences naturelles et la technologie influencent considérablement la nature et les gens, les modifiant. À cet égard, D.I. Kuznetsov écrit : "La pensée humaine moderne a commencé à percevoir la nature différemment qu'il y a, disons, deux cents ans. L'homme moderne considère déjà la nature comme une technologie. Par conséquent, il est très important de changer l'image scientifique et technique traditionnelle. du monde, en le remplaçant par de nouvelles idées sur la nature, la technologie, les méthodes de résolution des problèmes, une existence humaine digne. Pour empêcher la technologie de détruire et de paralyser l'humanité, les gens doivent comprendre à la fois la nature de la technologie et les conséquences du développement technique. sans une éducation humanitaire et juridique complète, il est impossible de résoudre ce problème"[37] .

La technique révèle l'image humanitaire d'un ingénieur, révèle l'être caché d'une personne dans le monde des images, des motifs, des rythmes et des significations, il est donc si important de se concentrer non seulement sur les procédures cognitives, mais aussi sur l'aspect axiologique de l'évaluation de la technologie , où les capacités et les comportements humains les plus élevés sont un exemple de dévotion à la vérité. L'enrichissement des connaissances techniques avec le contenu de la philosophie, de la psychologie, de l'économie, de l'esthétique technique et de l'ergonomie élargit l'impact de l'activité technique sur la vie sociale et spirituelle. Dans le même temps, le progrès technologique pose de nombreux problèmes qui nécessitent une nouvelle application de l'éthique afin d'éviter une situation à risque. Hans Lenk, vice-président de l'Académie européenne des sciences, résume ces tendances dans l'ordre suivant.

1. Le nombre de personnes ayant subi des effets secondaires suite à des interventions techniques est en augmentation.

2. L'ampleur de la destruction du système naturel sous l'influence de l'activité humaine continue de croître, acquérant une portée mondiale.

3. La détérioration de la situation sanitaire, biologique et environnementale actualise le problème de la responsabilité des générations à naître.

4. Une personne subit de plus en plus des manipulations de type social et médico-pharmacologique. En conséquence de ce type d'expériences sur des humains, les problèmes éthiques de telles études sont exacerbés.

5. À la suite d'une intervention dans le code génétique, une personne est menacée de se transformer en "objet de technologie".

14.3. Évaluation sociale de la technologie et expertise sociale et environnementale

L'évaluation sociale de la technologie est la définition des changements qualitatifs de son développement, qui captent l'ensemble de la technosphère. Ce type d'évaluation s'apparente au concept de réévaluation, dont la conséquence est un bond dans le développement de ses éléments matériels. La technologie, l'énergie, les systèmes d'information évoluent. L'histoire des techniques connaît plusieurs étapes d'une telle remise en question. Les plus importantes au sens matériel et technique ont été les transitions de la technologie des armes à feu à la technologie des machines, et de celle-ci à la technologie automatisée. Le point de départ de ces changements, qui ont un caractère révolutionnaire, est l'énergie : la maîtrise de la puissance de la vapeur, de l'électricité et de l'énergie atomique. Tous ces changements sont des changements périodiques de la force d'influence sur la nature : de l'énergie musculaire à l'énergie technique. Les transitions entre eux ont marqué des révolutions techniques et scientifiques. Il y a eu deux grands sauts dans le développement de la capacité de l'homme à influencer la nature : 1) la révolution néolithique, associée au passage de la cueillette à l'agriculture, dotée de moyens de travail appropriés ; 2) une révolution provoquée par l'avènement de la production mécanique, au cours de laquelle l'échelle de l'impact de la société sur la nature a augmenté à pas de géant grâce à des moyens techniques fondamentalement nouveaux et est devenue comparable à l'échelle des processus géologiques et même cosmiques. Socialement, ces transitions ont constitué une révolution technique, dont le sens est qu'elle a servi de base aux transformations qualitatives de la société. Maîtriser la technologie de production du fer dans les pays européens revenait à maîtriser le système d'irrigation en Asie, à la différence cependant que ce dernier n'a pas accéléré le développement, mais l'a conservé. La base de la révolution technique est l'évolution de la technologie : la production mécanique d'un artisan urbain de Londres ou de Manchester a donné naissance au capitalisme. Derrière tout cela se cache un homme qui ne supporte pas la technologie, car elle le déplace partout, et l'homme lui-même (comme l'écrivait E. Kapp - homo sapiens technicus) se retrouve dans la technologie. Toutes les révolutions sociales se sont produites à la suite de la stagnation technique, poussant ainsi la révolution de la technologie et de la science. Une telle stagnation se produit au fur et à mesure que l'adéquation de l'organisation de la technosphère, de l'organisation sociale et politique est réalisée dans telle ou telle société. Les signes caractéristiques de la stagnation sont : a) le développement extensif de la technologie, le rejet du fondamentalement nouveau dans la technosphère ; b) la gigantomanie technique.

L’étape actuelle du développement technologique est souvent appelée la révolution scientifique et technologique (STR). La plupart des sources nationales affirment que la caractéristique principale de la révolution scientifique et technologique est la transformation de la science en une force productive directe. Notons cependant que cet attribut, premièrement, est une expression figurative, puisque la science ne peut pas être littéralement une force productive. Deuxièmement, cela n’indique pas le caractère révolutionnaire de la scène moderne, puisque le développement de la technologie sur une base scientifique a commencé à l’époque de la révolution industrielle du XVIIIe siècle. En ce sens, nous pouvons parler de renforcement de la tendance existante en matière de développement technologique, et non d’un changement radical. La nature révolutionnaire réside plutôt dans le fait que la formation de l'industrialisme au sens technique présuppose un changement qualitatif dans l'organisation du travail, au cours duquel l'attribution traditionnelle du machinisme d'une opération partielle étroite à chaque travailleur cède la place à un travail relativement holistique, comprenant un certain nombre d'opérations, et redonne ainsi de la valeur et de l'attractivité au travail vivant.

Le rejet de la technologie et sa condamnation proviennent de diverses sources, telles que l'amour de la nature et de la vie simple ; la nécessité d'avoir une idée claire de l'état des choses; considérations économiques concernant les stocks de matières premières et l'élimination des déchets; un sens de la justice qui proteste contre le fait que certains groupes de personnes vivent beaucoup mieux que d'autres, ainsi que le désir de changements dans le système qui pourraient conduire à une transformation fondamentale de la structure sociale. Tout cela a un impact sur l'attitude envers la technologie, sur les exigences pour instaurer le principe de croissance zéro, alors que les autorités, au contraire, s'inquiètent de la lenteur de la croissance de l'économie et du développement de la technologie. L'anthropologue allemand de la technologie Hans Sachse explique cette situation comme suit.

1. Il y a une certaine inévitabilité de la croissance. Les revenus souhaités sont prévus pour les années à venir. Pour ce faire, de l'argent est investi, des investissements, en tenant compte des revenus attendus. Arrêter ce processus, maintenir l'économie à un niveau constant équivaut à son effondrement : la stagnation se transformera en effondrement.

2. Demandes des pauvres - pour égaliser le niveau de revenu. Cependant, on pense que la redistribution ne conduira pas à une amélioration significative de la situation des pauvres. Aux États-Unis, par exemple, lorsque la consommation d'électricité est égalisée, les riches devraient renoncer à 5/6 de leur consommation, tandis que les pauvres ne recevraient que 1/6 du niveau actuel. Le jeu en vaut-il la chandelle ?

3. La possibilité d'affirmation de soi des nations dépend presque exclusivement de leur potentiel technique et économique. Si une nation (un État) arrêtait unilatéralement sa croissance, elle deviendrait certainement dépendante des autres nations. Les appels à limiter la croissance sont justifiés par des préoccupations environnementales. Mais cet argument est considéré comme un stratagème des pays industrialisés pour tenir les pays pauvres à l’écart du progrès technologique. Il existe cependant des limites naturelles à la croissance technique : le manque de matières premières. La conclusion est claire : il est impossible d’arrêter le progrès technologique, tout comme il est impossible d’arrêter le temps.

D’un autre côté, il existe une menace de surconsommation. Les États « providence » sont des pays qui offrent une assurance maladie, une augmentation du temps libre, une forte migration de personnes vers les plages ensoleillées, une abondance d'informations à la télévision, etc. Tout cela finit par devenir un frein aux progrès ultérieurs, puisqu'une personne est déjà privée d'initiative. , l'indépendance. La satisfaction complète de ses besoins primitifs laisse un sentiment de vide, d'absurdité de l'existence, et donne lieu à l'indifférence, à la frustration ou à l'agressivité. Le problème se pose : comment utiliser le précieux outil de la technologie pour de nouvelles tâches qui mènent encore plus loin ? La solution réside dans l'utilisation du principe du développement intensif de la technologie en élevant de manière intensive le niveau de vie des pauvres. Selon Sachse, cela élargira l’étendue de la conscience, augmentera la vivacité, l’intensité de la vie et conduira à une existence authentique. Cependant, une perspective aussi brillante ne deviendra une réalité que si : 1) des opportunités de croissance éducative et professionnelle sont créées pour la population active ; 2) augmenter le niveau de la recherche scientifique sur tout le périmètre de la connaissance scientifique ; 3) augmenter le niveau d'équipement technique du processus d'apprentissage ; 4) assurer la rationalisation et l'amélioration du niveau des technologies de communication pour approfondir les relations interhumaines à travers le monde.

L'expertise sociale et environnementale des projets scientifiques, techniques et économiques est associée à une expertise des processus et des phénomènes non directement mesurables. Elle s'appuie sur des avis de spécialistes et est médiatisée par le problème de la responsabilité du scientifique, de la science vis-à-vis de la société. Le passé prévisible montre que la situation n'a pas changé pour le mieux dans le système de l'environnement humain, axé sur le maintien de sa longévité active. Les changements sociaux de ces dernières années ont suscité ou approfondi des tendances négatives préexistantes. Ainsi, la détérioration de l'environnement écologique a entraîné une augmentation des facteurs de risque pour la vie humaine. L'attention portée aux problèmes environnementaux qui nuisent à la santé humaine a été perdue. L'essence de la crise écologique n'a pas reçu d'explication scientifique en termes d'impact sur la santé humaine.

14.4. Le progrès scientifique et technologique et le concept de développement durable

Le progrès scientifique et technologique (STP) ne peut être appréhendé sans le rattacher à des dimensions spatio-temporelles, c'est-à-dire au moment de son stade de développement postclassique ou postnonclassique. Daniel Bell y voyait un cliché de la "troisième révolution technologique" avec ses possibles conséquences sociales. W. Dizard, à la suite d'Arnold Toynbee, l'a présenté en termes d'« ère de l'information », liant le progrès scientifique et technique à l'évolution d'un réseau d'information électronique capable de relier le monde entier. Bell a étudié le phénomène du progrès scientifique et technologique comme le début de l'ère des « têtes d'œuf ». Mais les « têtes d'œufs » (Peter Sterns, Michael Harrington et autres) contestent ce jugement du point de vue de Lewis Mumford, le critique le plus perspicace de la société industrielle du XXe siècle. Les États-Unis sont considérés comme le seul pays à avoir effectué une transition en trois étapes d'une société agraire à une société industrielle, et de celle-ci à une société dont le nom n'est pas encore clairement défini. Mais la principale caractéristique de cette société est qu'elle est principalement engagée dans la production, le stockage et la diffusion de l'information. R. Darrendorf, qui a étudié cette tendance, appelle les États-Unis post-capitalistes, A. Etzioni - post-moderne, K. Boulding - post-civilisation, G. Kahn - post-économique, S. Ahlstrom - post-protestant, R. Soydenberg - post-historique, R. Barnet propose d'appeler les USA « société post-pétrole ». Tel est l'assortiment des définitions, où chacune a son fondement et prétend se suffire à elle-même.

D. Bell, qui adhère au concept d'une société postindustrielle réunissant tous les « têtes d'œufs », n'est pas optimiste quant à l'avenir de cette société. Dans son évaluation critique des États-Unis modernes, L. Mumford a avancé encore plus, voyant une dangereuse inclinaison vers l’establishment militaro-industriel, qui monopolisait toute la sphère de l’information, et vers le système répressif de la bureaucratie. La société dite de l’information est le fruit du progrès technologique moderne, mais ses théoriciens refusent de lui donner des caractéristiques claires. Le pionnier de l'informatique John von Neumann constate que cette société étend systématiquement son influence dans les domaines politique, économique et culturel. Mais un mouvement progressiste est clairement visible dans la production et la distribution de l'information, l'expansion des services d'information pour l'industrie et le gouvernement et la création d'un vaste réseau de médias d'information axés sur le consommateur. Il est jugé bénéfique d’être vigilant face à cette tendance.

En Russie, le thème du progrès scientifique et technologique, que nous avons déclaré, est le plus complètement exploré dans la monographie de VV Ilyin "Philosophie des sciences"[38] .

Selon Ilyin, le développement de la science est une augmentation permanente de son potentiel de contenu: instrumental, catégorique, factuel, à partir duquel, par conséquent, une pénétration adéquate dans la nature des choses, une assimilation démonstrative de la vérité est faite. Il existe deux modes de développement des connaissances : évolutif (extensif) et révolutionnaire (intensif). Le développement évolutif n'implique pas un renouvellement radical du fonds théorique des connaissances. Elle est réalisée à la suite de l'adaptation de la théorie générale à la solution de problèmes particuliers en ajoutant des hypothèses appropriées, en fusionnant avec la théorie spécifique du formalisme mathématique, en introduisant de nouvelles hypothèses (amélioration de l'héliocentrisme de Kepler), etc. La principale caractéristique du développement évolutif est la présence d'un lien déductif entre les théories de base et dérivées. Le développement révolutionnaire de la science suppose un renouvellement et une modification importants de son arsenal conceptuel. Elle consiste à approfondir les idées antérieures sur l'essence des phénomènes étudiés. Les raisons de la révolution de la science sont les suivantes : d'une part, tout développement évolutif s'accompagne d'une restructuration des fondements logiques qui épuisent les possibilités immanentes d'auto-développement ; d'autre part, il y a une incapacité de la théorie actuelle à assimiler les faits empiriques disponibles. Ce qui lui est arrivé est ce qu'on appelle la "saturation" (saturation en dioxyde de carbone). En conséquence, la théorie perd son potentiel prédictif. L'utilisation opérationnelle de la théorie devient impossible. Les conditions préalables à une révolution scientifique sont, premièrement, l'épuisement personnel, le manque de potentiel heuristique, la description, la prédiction des phénomènes ; deuxièmement, la "fatigue" de la théorie, son incapacité à résoudre des problèmes intra-théoriques ; troisièmement, les contradictions, les antinomies et autres imperfections qui discréditent les algorithmes traditionnels pour poser et résoudre des problèmes.

Ce sont les pré-requis. Mais cela ne suffit pas pour une révolution. Il nous faut des raisons ! Une idée nouvelle doit surgir, indiquant le sens de la restructuration des savoirs existants, même s'ils n'en sont qu'à leurs balbutiements. Une nouvelle théorie ne peut être obtenue comme conséquence logique d'une ancienne. La relation entre l'ancien et le nouveau ne peut être décrite qu'en termes de principe de correspondance (N. Bohr). Résumant les modèles de développement évolutif proposés par K. Popper, I. Lakatos et T. Kuhn, le méthodologiste autrichien de la science E.Ezer est arrivé à la conclusion que quatre types principaux de transitions de phase sont réalisés dans l'histoire des sciences : 1) du stade pré-théorique de la science à la théorie primaire ; 2) d'une théorie à une autre (changement de paradigme) ; 3) de deux théories particulières émergeant séparément et se développant parallèlement à une théorie universelle ; 4) d'une théorie visuelle basée sur l'expérience sensorielle à une théorie abstraite non visuelle avec un changement total des concepts de base[39] .

Notion de développement durable. Dans l'usage courant, le concept de "développement" est étroitement lié au concept de progrès. Mais dans la sphère de l'usage philosophique et scientifique des mots, il capture l'existence d'un système comme une unité de progrès et de régression, de renouvellement et de destruction, d'affirmation de soi et d'autodestruction. La compréhension philosophique du développement repose initialement sur les oppositions traditionnelles du mouvement et du repos, de la variabilité et de la stabilité, de la transformation et de la préservation, de la systémicité, de la non-linéarité et de l'incohérence du développement. Le concept de développement durable implique la préservation, la reproduction du système, son auto-changement, son co-changement avec d'autres systèmes. Le système n'est pas piloté par l'homme, il s'y adapte.

La nature du développement des connaissances scientifiques est considérée par VV Ilyin comme un processus d'accumulation des connaissances. Son concept fait écho à la théorie de T. Kuhn, K. Popper et, dans une moindre mesure, P. Feyerabend. Il existe des différences conceptuelles et catégorielles dans ces approches. La théorie du progrès de la science, proposée par V.V. Ilyin, se distingue par la profondeur de l'argumentation et le plus grand détail de la présentation et des preuves.

Thème 15. Le problème de la responsabilité dans la philosophie des sciences et des techniques

Dans la vie, il y a toujours eu des contradictions entre ce qui devrait être et ce qui est. Ce mal de la vie quotidienne affecte également le problème de responsabilité associé au fonctionnement de la technologie, avec la solution de la question du bénéfice et du mal. Physicien allemand, lauréat du prix Nobel Max Born (1882-1970) ont souligné que la vraie science et son éthique ont subi des changements qui rendent impossible le maintien du vieil idéal de servir la connaissance pour elle-même. Nous étions convaincus que cela ne pouvait jamais se transformer en mal, car la recherche de la vérité est bonne en soi. C'était un beau rêve dont nous avons été réveillés par des événements mondiaux. physicien américain Robert Oppenheimer (1904-1967), le créateur de la bombe atomique, était encore plus intolérant, déclarant que les physiciens après les bombardements atomiques américains sur les villes japonaises en 1945 avaient perdu leur innocence et connaissaient pour la première fois le péché. Des sentiments de culpabilité l'ont forcé à abandonner l'idée de créer une bombe à hydrogène. Les autorités américaines ont réagi à cette décision en le retirant de toute activité scientifique et en le privant de l'accès aux informations classifiées. Le sociologue et économiste allemand a parlé de la nécessité d'une évaluation proactive des diverses conséquences du développement technologique. Werner Sombart (1883-1941). Dans son livre "Socialisme allemand" dans la section "Reining Technology", il a avancé l'idée que l'introduction de nouvelles technologies sera toujours accompagnée ou même précédée d'une analyse de la valeur de ses conséquences possibles. Cette position, soutenue par nombre de ses disciples, est devenue l'une des thèses les plus importantes de la philosophie de la technologie, et la prise de conscience de l'importance vitale de sa mise en pratique a conduit à la création en 1972 au Congrès américain de la première structure officielle de évaluation de la technologie "Office of Technology Asseement" ("Office of Technology Assessment"). technologie"). Plus tard, des organisations similaires sont apparues en Suède (1973), au Canada (1975) et dans un certain nombre d'autres pays développés.

Le "père" de la cybernétique Norbert Wiener (1894-1964) dans son activité scientifique ne s'est pas limité à refuser toute forme de coopération avec le complexe militaro-industriel américain, mais a également exhorté ses collègues à suivre son exemple. Dans Cybernetics, or Control and Communication in the Animal and Machine (1948), il, pleinement conscient du fait que cette nouvelle science "conduit à des avancées technologiques qui créent ... de grandes possibilités pour le bien et le mal", a appelé ses collègues à abandonner la recherche en cybernétique. Wiener a avancé le principe selon lequel il était nécessaire (a) de s'assurer que le grand public comprenait la direction générale et la signification de ces études et (b) "de limiter leurs propres activités à des domaines non liés à la guerre comme la physiologie et la psychologie". Nous ne pouvons pas citer d'exemples similaires de la réalité soviétique en raison de son secret. Nous croyons cependant qu'ils ont eu lieu. Bien qu'il existe d'autres exemples où les charlatans en science étaient en faveur.

En 1945, aux États-Unis, un groupe d'ingénieurs nucléaires écrivit à leur secrétaire à la Défense, Henry L. Stimson, dans lequel ils avertissaient que l'énergie nucléaire était infiniment plus dangereuse que toute invention antérieure et qu'ils ne pouvaient pas en échapper à la responsabilité directe. .comment l'humanité utilise ses inventions désintéressées. En 1957, la IIIe Conférence Pugwash à Vienne a publié une déclaration appelant les scientifiques à contribuer à l'éducation des gens et à diffuser parmi eux une compréhension des dangers qui pèsent sur le développement ultérieur de la science et de la technologie. En 1974, la "Déclaration du Mont Karmel sur la technologie et la responsabilité morale", soutenue par les scientifiques du monde entier, affirmait l'échec moral et éthique de l'utilisation de l'énergie atomique à des fins militaires. Dans les années 1970 un groupe de généticiens et de microbiologistes a imposé un moratoire sur certaines expériences et recherches lorsqu'il s'est avéré que les molécules hybrides qu'ils avaient obtenues pouvaient être utilisées pour interférer avec les gènes d'un organisme humain vivant. En 1975, un groupe de scientifiques dirigé par Paul Berg organise une conférence internationale à Asilomar (USA) avec la participation de 150 généticiens du monde entier. Un système de mesures de précaution a été développé pour garantir la sécurité de cette ligne de recherche pour la vie humaine.

De telles initiatives actives sont devenues possibles parce que l’époque du scientifique solitaire est déjà révolue. Les découvertes et mises en œuvre scientifiques étaient le résultat d’une recherche collective de connaissances. La recherche scientifique fondamentale nécessite la concentration des efforts dans des domaines connexes de la recherche scientifique. Dans le contexte de ces processus, la philosophie de la technologie ne pouvait se limiter aux observations extérieures. Karl Jaspers fut l'un des premiers à s'intéresser à la situation de l'époque. Il a proclamé que la technologie était idéologiquement neutre dans le système de lutte entre deux systèmes mondiaux et a proposé de rejeter entièrement la responsabilité des conséquences sur les peuples eux-mêmes. Il a déclaré que la technologie était un dérivé du système social, en imputant l’entière responsabilité à ce dernier. Sa thèse « Il n’existe pas vraiment de technologie neutre en termes de valeur » est devenue la devise de la science et de la technologie. Jaspers a développé le problème de la communication en relation avec les problèmes de liberté et de vérité. La communication d'un individu, sa connexion avec les autres constituent la structure de son propre être, de son existence, affirme le philosophe. L'existence humaine, dans le concept de Jaspers comme dans celui de Heidegger, consiste toujours à « être avec » (les autres). Sans communication, il n’y a et ne peut pas y avoir de liberté. Le refus de l'existence est la possibilité de s'objectiver et d'accéder ainsi à un être universel. Jaspers distingue la libre existence de la volonté aveugle par la possibilité de communiquer avec les autres, la possibilité d'être « entendu ». L'existence ne peut pas être définie, ne peut pas « communiquer » avec d'autres existences, et cela suffit pour qu'elle existe comme une réalité, et non comme une illusion subjective. La communication est une manière de créer la raison, introduisant la compréhension, « l’illumination », d’une part, et l’existence, introduisant l’être même qu’il faut comprendre, d’autre part. Du point de vue de Jaspers, la communication est une communication dans laquelle une personne ne joue pas les « rôles » préparés pour elle par la société, mais découvre à quoi ressemble « l'acteur » lui-même. Le concept existentiel de Jaspers est à l'opposé de la « communication de masse », dans laquelle l'individu se perd et se dissout dans la foule. Jaspers considère également la vérité elle-même en relation avec la communication : la communication est un moyen d’acquérir la vérité, la communication « en vérité ». À la suite de Jaspers, M. Heidegger, A. Huning et S. Florman ont confirmé l’idée de l’indépendance de la technologie par rapport aux systèmes sociaux et politiques.

Comme vous le savez, l'intentionnalité (c'est-à-dire l'aspiration) est un concept inhérent exclusivement à la conscience humaine. Ce concept est positivement considéré dans les recherches de J. Searle. Cependant, il a commencé à être remis en question après l'avènement d'un ordinateur capable d'apprendre et de s'adapter à l'environnement extérieur, et, par conséquent, de changer le programme même de son comportement lorsque les conditions environnementales changeantes l'exigent (comme si les ordinateurs avaient des désirs de les leurs). En conséquence, la responsabilité des actions de la technologie a commencé à être transférée de la personne au système. Le contexte social d'une telle logique est compréhensible, mais très dangereux.

Conclusion

Certaines exigences méthodologiques ont toujours été imposées à un manuel en tant que type de littérature: clarté et clarté de la présentation du matériel, de sa structure, validité générale et validité des principales dispositions, conformité de son contenu à certaines normes d'une certaine discipline adoptées dans la communauté professionnelle. Nous espérons que le niveau nécessaire de conformité à ces exigences dans le manuel de formation a été atteint. Bien que, bien sûr, les caractéristiques stylistiques méthodiques, littéraires et significatives du livre n'aient pas échappé au lecteur attentif par rapport aux manuels d'autres auteurs. Cela est dû uniquement à notre désir de présenter le matériel pédagogique de la manière la plus accessible et de le transmettre au lecteur.

Décrivant les principales dispositions de la philosophie de la science et de la technologie dans son ensemble, nous avons adhéré aux traditions nationales de construction d'un cours, qui se reflètent dans les travaux de P. P. Gaidenko, V. V. Ilyin, T. G. Leshkevich, T. T. Matyash, V. P. Kokhanovsky, T. V. Fathi , N. M. Al-Ani et d'autres auteurs. Les travaux fondamentaux de l'académicien de l'Académie russe des sciences V. S. Stepin revêtent une importance méthodologique particulière dans notre étude. Dans l'intérêt du lecteur, nous jugerons opportun de reproduire certaines des idées de l'académicien en tant que pionnier dans ce domaine de la philosophie des sciences, exposées dans sa monographie "Theoretical Knowledge"[40] .

1. La connaissance théorique résulte du développement historique de la culture et de la civilisation. Ses échantillons primaires sont représentés par la connaissance philosophique, qui était la seule forme de la théorie au stade de la pré-science.

2. La science développée, contrairement à la pré-science, ne se limite pas à modéliser uniquement les relations objectives qui sont déjà incluses dans la pratique réelle de la production et de l'expérience quotidienne. Elle est capable de dépasser les limites de chaque type de pratique historiquement défini et d'ouvrir de nouveaux mondes objectifs pour l'humanité, qui ne peuvent devenir des objets de développement pratique de masse qu'à des stades futurs du développement de la civilisation. À une certaine époque, Leibniz a qualifié les mathématiques de science des mondes possibles. En principe, cette caractéristique peut être attribuée à n'importe quelle science fondamentale.

3. Des percées vers de nouveaux mondes objectifs deviennent possibles dans la science développée grâce à une manière particulière de générer des connaissances. Au stade de la pré-science, des modèles de transformation des objets inclus dans les activités ont été créés en schématisant la pratique. Les objets de l'opération pratique ont été remplacés dans la cognition par des objets idéaux, des abstractions, qui sont opérés par la pensée. Dans la science développée, bien que cette méthode soit utilisée, elle perd sa position dominante. L'essentiel est la méthode de construction des connaissances, dans laquelle des modèles de relations objectives de la réalité sont d'abord créés, pour ainsi dire, d'en haut par rapport à la pratique. Les objets idéaux qui agissent comme des éléments de tels modèles ne sont pas créés en faisant abstraction des propriétés et des relations des objets de la pratique réelle, mais sont construits sur la base d'un fonctionnement avec des objets idéaux créés précédemment. La structure (réseau de connexions) dans laquelle ils sont immergés n'est pas non plus extraite directement de la pratique (par abstraction et schématisation des connexions réelles des objets), mais est transmise à partir de domaines de connaissance préalablement établis. Les modèles ainsi créés agissent comme des hypothèses qui, après avoir été justifiées, se transforment en schémas théoriques pour l'étude du domaine. C'est la recherche théorique, basée sur une opération relativement indépendante d'objets idéalisés, qui est capable de découvrir de nouveaux domaines avant qu'ils ne commencent à être maîtrisés par la pratique. La théorisation agit comme une sorte d'indicateur d'une science développée.

4. La méthode théorique de recherche et, partant, le passage de la pré-science à la science au sens propre du terme s'est d'abord réalisé en mathématiques, puis en sciences naturelles et, enfin, dans les sciences techniques et sociales et les sciences humaines . Chacune de ces étapes du développement de la science a ses propres prérequis socioculturels. La formation des mathématiques en tant que science théorique était associée à la culture de la polis antique, aux valeurs de la discussion publique qui y étaient établies, aux idéaux de justification et de preuve qui distinguent la connaissance de l'opinion.

Les conditions préalables aux sciences naturelles, qui combinaient description mathématique et expérience, étaient la formation des principaux universaux de la vision du monde de la culture technogénique : la compréhension de l'homme en tant qu'être actif et actif qui transforme le monde ; compréhension de l'activité en tant que processus créatif qui fournit un pouvoir humain sur les objets ; attitude à l'égard de tout type de travail en tant que valeur ; compréhension de la nature comme un champ d'objets naturellement ordonné qui s'oppose à l'homme; interprétation des buts de la connaissance comme une compréhension équivalente des lois de la nature, etc. Toutes ces valeurs et significations de la vie, qui se sont formées à l'époque de la Renaissance, de la Réforme et du début des Lumières, étaient radicalement différentes de la compréhension de l'homme, de la nature, de l'activité humaine et des connaissances qui dominaient les cultures traditionalistes.

Dans le développement ultérieur de la civilisation technogénique, au stade de son développement industriel, les conditions préalables à la formation des sciences sociales techniques et des sciences humaines se posent. Le développement intensif de la production industrielle donne lieu à la nécessité d'inventer et de reproduire des dispositifs d'ingénierie toujours nouveaux, ce qui crée des incitations à la formation de sciences techniques avec leur niveau de recherche théorique inhérent. Dans la même période historique, la transformation relativement rapide des structures sociales, la destruction des liens communautaires traditionnels, qui sont supplantés par des relations de "dépendance propre", l'émergence de nouvelles pratiques et de nouveaux types de discours qui objectivent les qualités humaines, créent les conditions d'une la formation des sciences sociales et humaines.

Il existe des conditions et des besoins pour trouver des moyens de régulation rationnelle des fonctions et des actions standardisées des individus inclus dans certains groupes sociaux, des moyens de gérer divers objets et processus sociaux. Dans le cadre de ces besoins, les premiers programmes de construction des sciences de la société et de l'homme se constituent.

5. La connaissance scientifique est un système complexe en développement dans lequel, à mesure que l'évolution progresse, de nouveaux niveaux d'organisation apparaissent. Ils ont un effet inverse sur les niveaux précédemment établis et les transforment. Dans ce processus, de nouvelles techniques et méthodes de recherche théorique évoluent constamment et la stratégie de la recherche scientifique évolue. Dans ses formes développées, la science apparaît comme un savoir organisé disciplinaire, dans lequel des branches individuelles - disciplines scientifiques (mathématiques, sciences naturelles - physique, chimie, biologie, etc. ; sciences techniques et sociales) agissent comme des sous-systèmes relativement autonomes interagissant les uns avec les autres. Les disciplines scientifiques émergent et se développent de manière inégale. Différents types de connaissances s'y forment, dont certains ont déjà parcouru un chemin de théorisation assez long et ont constitué des exemples de théories mathématiques développées, tandis que d'autres ne font que s'engager dans ce chemin.

Comme unité initiale d'analyse méthodologique de la structure de la connaissance théorique, il ne faut pas prendre une seule théorie dans sa relation avec l'expérience (comme cela était indiqué dans le concept dit standard), mais une discipline scientifique. La structure des connaissances d'une discipline scientifique est déterminée par le niveau d'organisation des théories de divers degrés de généralité - fondamentales et particulières (locales), leurs relations entre elles et avec le niveau complexe de recherche empirique (observations et faits), ainsi comme leur relation avec les fondements de la science. Les fondements de la science sont le facteur systémique d’une discipline scientifique. Ceux-ci inclus:

1) une image scientifique spéciale du monde (ontologie disciplinaire), qui introduit une image généralisée du sujet de cette science dans ses principales caractéristiques systémiques-structurelles;

2) les idéaux et les normes de la recherche (idéaux et normes de description et d'explication, de preuve et de justification, ainsi que les idéaux de la structure et de l'organisation des connaissances), qui déterminent le schéma généralisé de la méthode de la connaissance scientifique ;

3) les fondements philosophiques de la science, qui étayent l'image acceptée du monde, ainsi que les idéaux et les normes de la science, grâce auxquels les idées développées par la science sur la réalité et les méthodes de sa cognition sont incluses dans le courant de la culture transmission.

Les fondements de la science ont, à côté d'une composante disciplinaire, également une composante interdisciplinaire. Il est formé par l'image scientifique générale du monde comme une forme particulière de systématisation des connaissances scientifiques, qui forme une image holistique de l'Univers, de la vie, de la société et de l'homme (les ontologies disciplinaires apparaissent en relation avec l'image scientifique générale du monde comme son aspect ou fragment), ainsi qu'une couche spéciale du contenu des idéaux, des normes de connaissance et des fondements philosophiques de la science, qui met en évidence les caractéristiques invariantes du caractère scientifique, adoptées à une époque historique particulière. La composante interdisciplinaire des fondements de la science assure l'interaction de diverses sciences, le transfert d'idées et de méthodes d'une science à l'autre. Les connaissances théoriques fonctionnent et se développent comme un système complexe d'interactions intradisciplinaires et interdisciplinaires.

6. La structure de contenu des théories scientifiques est déterminée par l'organisation systémique d'objets idéalisés (abstraits) (constructeurs théoriques). Les énoncés du langage théorique sont directement formulés par rapport à des construits théoriques et seulement indirectement, en raison de leur rapport à la réalité extralinguistique, décrivent cette réalité. Dans le réseau d'objets abstraits de la théorie scientifique, des sous-systèmes spéciaux peuvent être distingués, construits à partir d'un petit ensemble de constructions de base. Dans leurs relations, ils forment des modèles théoriques de la réalité étudiée. Ces modèles sont inclus dans la théorie et forment son "squelette" interne. Les modèles de ce type, qui forment le noyau d'une théorie, peuvent être appelés schémas théoriques. Ils doivent être distingués des modèles analogiques, qui servent de moyen de construction d'une théorie, en sont l'« échafaudage » et n'en font pas partie.

Dans une théorie développée, on peut trouver un schéma théorique fondamental, par rapport auquel les lois fondamentales de la théorie sont formulées, et des schémas théoriques particuliers, par rapport auxquels des lois d'un moindre degré de généralité sont formulées, sont dérivés des principes fondamentaux. ceux. Ces schémas et les lois qui leur correspondent forment une hiérarchie de niveaux. Dans le cadre de la connaissance théorique d'une discipline scientifique, les schémas et lois théoriques privés individuels peuvent avoir un statut indépendant. Elles précèdent historiquement les théories développées. Les schémas théoriques sont cartographiés sur l'image scientifique du monde (ontologie disciplinaire) et le matériel empirique expliqué par la théorie. Ces deux cartographies sont fixées par des déclarations spéciales qui caractérisent les objets abstraits des théories en termes d'image du monde et en termes d'expériences idéalisées basées sur l'expérience réelle. Les dernières déclarations sont des définitions opérationnelles. Ils ont une structure complexe et ne se limitent pas aux descriptions de situations réelles de mesure, bien qu'ils incluent de telles descriptions dans leur composition.

La connexion de l'appareil mathématique avec le schéma théorique, affiché sur l'image scientifique du monde, fournit son interprétation sémantique, et la connexion du schéma théorique avec l'expérience - l'interprétation empirique.

7. Les schémas théoriques jouent un rôle important dans le déploiement de la théorie, qui s'effectue non seulement à travers les méthodes d'inférence déductive utilisant des opérations formelles, mais aussi de manière génétiquement constructive, à travers des expériences de pensée avec des schémas théoriques. L'idée de la théorie fonctionnant comme un système hypothético-déductif doit être substantiellement corrigée. Dans les théories qui n'appartiennent pas au type des systèmes formalisés, la dérivation de leurs conséquences théoriques à partir des lois fondamentales implique des processus complexes de transformation des schémas théoriques, la réduction d'un schéma théorique fondamental à des schémas particuliers. Une telle réduction combine des méthodes de recherche déductives et inductives et constitue la base de la résolution de problèmes théoriques, dont certains sont inclus dans la théorie en tant qu'échantillons paradigmatiques (T. Kuhn).

Les idées sur la structure des schémas théoriques et les méthodes génétiquement constructives de construction d'une théorie permettent de concrétiser de manière significative le problème des échantillons posé par Kuhn comme un élément obligatoire dans la structure de la théorie des sciences expérimentales.

8. Le problème de la formation d'une théorie et de son appareil conceptuel apparaît avant tout comme un problème de genèse des schèmes théoriques. De tels schémas sont d'abord créés comme des hypothèses, puis étayés par l'expérience. La construction de schémas théoriques en tant qu'hypothèses s'effectue en transférant des objets abstraits d'autres domaines de la connaissance théorique et en connectant ces objets dans un nouveau "réseau de relations". Cette méthode de formation de modèles hypothétiques peut être réalisée en deux versions : par des opérations signifiantes avec des concepts et par l'avancement d'hypothèses mathématiques (dans le second cas, avec des équations hypothétiques, un modèle hypothétique est implicitement introduit pour fournir une interprétation préliminaire de la équations). Dans la formation d'une version hypothétique du schéma théorique, les fondements de la science jouent un rôle actif. Ils déterminent la formulation des problèmes et des tâches et le choix des moyens nécessaires pour émettre une hypothèse. Les fondements de la science fonctionnent comme un programme de recherche mondial qui guide la recherche scientifique.

9. Lors de la construction de modèles hypothétiques, les objets abstraits sont dotés de nouvelles caractéristiques, puisqu'ils sont introduits dans un nouveau système de relations. La justification des modèles hypothétiques par l'expérience suggère que de nouvelles caractéristiques d'objets abstraits auraient dû être obtenues en tant qu'idéalisation basée sur ces nouvelles expériences pour lesquelles le modèle a été créé pour expliquer. Il est proposé d'appeler cette procédure la méthode de justification constructive du schéma théorique. En règle générale, les schémas qui sont passés par cette procédure acquièrent un nouveau contenu par rapport à leur version hypothétique d'origine. Affichés dans l'image du monde, ils entraînent des changements dans cette image. En raison de toutes ces opérations, le développement de concepts scientifiques se produit. Dans la création de l'appareil conceptuel d'une théorie, un rôle décisif est joué non seulement par l'avancement, mais aussi par la justification d'une hypothèse. À leur tour, la justification des hypothèses et leur transformation en théorie créent les moyens d'une recherche théorique future.

10. La méthode de justification constructive permet d'identifier les "points faibles" de la théorie et assure ainsi une restructuration efficace des connaissances scientifiques. Elle ouvre la possibilité d'une vérification adéquate de la cohérence des connaissances théoriques, permettant de découvrir des paradoxes cachés dans la théorie avant qu'ils ne soient révélés par le cours spontané du développement des connaissances. La méthode de constructibilité doit être considérée comme un développement des éléments rationnels du principe d'observabilité.

11. La découverte de la procédure de « justification constructive » permet de résoudre le problème de la genèse d'échantillons paradigmatiques de problèmes théoriques. La construction d'une théorie développée s'effectue sous la forme d'une synthèse par étapes et d'une généralisation de schémas et de lois théoriques particuliers. A chaque nouvelle étape de cette généralisation, la préservation du contenu constructif précédent est vérifiée, ce qui introduit automatiquement des réductions du schéma théorique généralisant à des schémas particuliers. Au stade final de la synthèse théorique, lorsqu'un schéma théorique fondamental est créé et que les lois fondamentales de la théorie sont formulées, la vérification de leur sens constructif est effectuée en tant que construction sur la base du schéma théorique fondamental obtenu de toutes les théories particulières. schémas assimilés par elle. En conséquence, des modèles de paradigme pour résoudre des problèmes théoriques apparaissent. Le développement ultérieur de la théorie et l'élargissement de la portée de son application incluent de nouveaux modèles dans sa composition. Mais les fondamentaux restent ceux qui sont apparus dans le processus de formation de la théorie. La théorie garde des traces de son histoire passée, reproduisant les principales étapes de sa formation sous forme de tâches typiques et de modèles pour leur solution.

12. Stratégies de changement de recherche théorique dans le développement historique de la science. De tels changements impliquent une restructuration des fondements de la science et sont qualifiés de révolutions scientifiques. Deux types de telles révolutions peuvent être distingués. Le premier d'entre eux, décrit par Thomas Kuhn, est associé à l'émergence d'anomalies et de crises provoquées par l'expansion de la science dans de nouveaux domaines. Leurs mécanismes peuvent être précisés en tenant compte de la structure des fondements de la science et des procédures de corrélation constante avec les fondements des théories émergentes. Le deuxième type, très mal analysé dans la littérature méthodologique, peut surgir sans anomalies ni crises, du fait d'interactions interdisciplinaires. Dans ce cas, des transferts d'une science à l'autre de divers éléments d'ontologies disciplinaires, d'idéaux et de normes et de fondements philosophiques sont effectués. Ce type de « greffe » paradigmatique conduit à une reformulation des tâches antérieures d'une discipline scientifique, à la formulation de nouveaux problèmes et à l'émergence de nouveaux moyens pour les résoudre. Un exemple du premier type de révolution scientifique est la formation de la théorie de la relativité et de la mécanique quantique. Un exemple du second est l'émergence d'une science organisée disciplinaire à la fin du XVIIIe - première moitié du XIXe siècle, ainsi que des « processus d'échange » modernes entre la cybernétique, la biologie et la linguistique.

13. La restructuration des fondements de la science pendant les périodes de révolutions scientifiques s'effectue, d'une part, sous la pression de nouveaux matériaux empiriques et théoriques surgissant au sein des disciplines scientifiques, et d'autre part, sous l'influence de facteurs socioculturels. Les révolutions scientifiques représentent une sorte de point de bifurcation dans le développement des connaissances, lorsque différentes directions possibles (scénarios) pour le développement de la science sont découvertes. À partir d'eux, sont mises en œuvre ces orientations (programmes de recherche) qui non seulement apportent un changement empirique et théorique positif des problèmes (I. Lakatos), mais s'intègrent également dans la culture de l'époque et sont cohérentes avec d'éventuelles modifications du sens de son idéologie. universels. En principe, avec d’autres tournants dans le développement historique de la culture et de la civilisation, d’autres sciences historiques (potentiellement possibles) pourraient voir le jour. Durant les périodes de révolutions scientifiques, la culture sélectionne, pour ainsi dire, parmi les nombreux scénarios possibles pour l'histoire future de la science, ceux qui correspondent le mieux à ses valeurs fondamentales.

14. A l'ère des révolutions scientifiques mondiales, où toutes les composantes des fondements de la science sont en reconstruction, on assiste à un changement de type de rationalité scientifique. Trois grands types historiques peuvent être distingués : la science classique, non classique, post-non classique. La science classique considère que la condition pour obtenir une véritable connaissance d'un objet est l'élimination (exclusion, suppression) dans l'explication théorique et la description de tout ce qui concerne le sujet, ses buts et ses valeurs, les moyens et les opérations de son activité. La science non classique (son modèle est la physique relative quantique) prend en compte le lien entre la connaissance d'un objet et la nature des moyens et des opérations de l'activité dans laquelle l'objet est découvert et connu. Mais les liens avec les valeurs et les objectifs intra-scientifiques et sociaux ne font toujours pas l'objet d'une réflexion scientifique, bien qu'ils déterminent implicitement la nature de la connaissance (déterminons quoi exactement et comment nous distinguons et comprenons dans le monde). La rationalité scientifique de type post-non classique élargit le champ de la réflexion sur l'activité. Il prend en compte la corrélation des connaissances acquises sur l'objet non seulement avec la particularité des moyens et des opérations de l'activité, mais également avec ses structures de valeur-cible. Dans le même temps, le lien entre les objectifs intra-scientifiques et les valeurs et objectifs sociaux non scientifiques est expliqué. Dans des études complexes de systèmes complexes auto-développés, qui deviennent de plus en plus les objets dominants des sciences naturelles et de la technologie modernes (objets de l'écologie, de la génétique et du génie génétique, complexes techniques "homme - machine - environnement", systèmes d'information modernes, etc.) , l'explicitation des valeurs intrascientifiques et sociales est réalisée avec l'expertise sociale des programmes de recherche concernés. L'historicisme des objets des sciences naturelles modernes et la réflexion sur les fondements de valeur de la recherche rapprochent les sciences naturelles et sociales. Leur opposition, juste pour le XIXe siècle, à notre époque perd largement de sa signification.

L’émergence d’un nouveau type de rationalité ne détruit pas les types historiquement antérieurs, mais limite le champ de leur action. Chaque nouveau type de rationalité scientifique introduit un nouveau système d'idéaux et de normes de connaissance, qui assure le développement du type correspondant d'objets système : des systèmes simples, complexes, en développement historique (auto-développés). En conséquence, la grille catégorique des fondements philosophiques de la science change - la compréhension d'une chose, d'un processus, de l'espace, du temps, de la causalité, etc. (composante ontologique). Enfin, avec l’avènement d’un nouveau type de rationalité, les applications idéologiques de la science changent. Aux stades classiques et non classiques de son développement, la science n'a trouvé de soutien que dans les valeurs de la civilisation technogénique et a rejeté les valeurs des cultures traditionalistes comme étant contradictoires avec elle. La science post-non classique incarne les idéaux de « rationalité ouverte » et participe activement à la recherche de nouvelles lignes directrices idéologiques qui déterminent les stratégies de développement civilisationnel moderne. Elle révèle la proportionnalité de ses réalisations non seulement par rapport aux valeurs et aux priorités de la culture technogénique, mais également à un certain nombre d'idées philosophiques et de vision du monde développées dans d'autres traditions culturelles (idées de vision du monde des cultures traditionnelles de l'Est et idées de la philosophie de cosmisme russe). La science post-non classique est organiquement incluse dans les processus modernes de formation de la pensée planétaire et du dialogue des cultures, devenant ainsi l'un des facteurs les plus importants dans l'interaction interculturelle entre l'Occident et l'Orient.

littérature

1. Agashin, E. Dimension morale de la science et de la technologie / E. Agashin. M., 1998.

2. Problèmes globaux de valeurs universelles. M., 1990.

3. Zotov, A. F. Philosophie occidentale moderne / A. F. Zotov. M., 2001.

4. Kazin, A. V. La science dans le miroir de la philosophie / A. V. Kazin. M., 1990.

5. Koyre, A. Essais sur l'histoire de la pensée philosophique / A. Koyre. M., 1980.

6. Kosareva, LN Genèse socioculturelle de la science : aspect philosophique du problème / LN Kosareva. M., 1989.

7. Lektorsky, V. A. Épistémologie classique et non classique / V. A. Lektorsky. M., 2000.

8. Moiseev, N. N. Rationalisme moderne / N. N. Moiseev. M., 1995.

9. Nikiforov, A. L. Philosophie des sciences. Histoire et méthodologie / A. L. Nikiforov. M., 1998.

10. Ogurtsov, A.P. Structure disciplinaire de la science / A.P. Ogurtsov. M., 1988.

11. Principes des sciences naturelles historiques. XXe siècle. M., 2001.

12. Philosophie moderne des sciences : lecteur. M., 1996.

13. Traditions et révolutions dans le développement de la science. M., 1991.

14. Philosophie et méthodologie des sciences / éd. V. I. Kuptsova. M., 1996.

notes

  1. Cogito ergo sum.
  2. En général, la mythologie est une forme de conscience sociale, une façon de comprendre la nature et la réalité sociale dans les premiers stades du développement social. La base de la mythologie était l'incapacité d'une personne à s'isoler de l'environnement, l'inséparabilité de la pensée, son inséparabilité de la sphère émotionnelle et, par conséquent, des phénomènes tels que des comparaisons métaphoriques d'objets naturels et culturels, l'humanisation de l'environnement naturel , animation de fragments du cosmos.
  3. La philosophie éléatique est née de la fusion du système pythagoricien de catégories, qui, en fait, est une structure transformée du mythe, avec les mathématiques pythagoriciennes scientifiquement conçues et également mythifiées (principalement l'arithmétique).
  4. Voir : Polanyi M. Connaissances personnelles / M. Polanyi. - M., 1985.
  5. Pour plus de détails, voir : Noiret L. Outil de travail et son importance dans l'histoire du développement humain. Kyiv, 1925.
  6. Kanke V. A. Orientations philosophiques de base et concepts scientifiques: manuel. allocation / V. A. Kanke. M., 2004. S. 242-243.
  7. Ibid.
  8. Pour plus de détails, voir : Porus, V.N. Nauka. Culture / V.N. Porus. M., 2002.
  9. Leshkevich, T. G. Philosophie des sciences / T. G. Leshkevich. M., 2006. S. 137.
  10. Bell, D. Cadre social de la société de l'information / D. Bell // Nouvelle vague technocratique en Occident. M., 1986. S. 333.
  11. Ibid.
  12. Feyerabend, P. La structure des révolutions scientifiques / P. Feyerabend. M., 1977. S. 109.
  13. Voir : Popper, K. La logique et la croissance des connaissances scientifiques / K. Popper. M., 1983. S. 332.
  14. Berdyaev, N. A. Le destin de la Russie / N. A. Berdyaev. M., 1990. S. 248-249.
  15. Fayol, A. La gestion est une science et un art / A. Fayol, G. Emerson, F. Taylor, G. Ford. M., 1992. S. 12.
  16. Gadamer, H. G. Vérité et méthode / H. G. Gadamer. M., 1988. S. 419.
  17. Ibid. S. 586.
  18. Kanke, V.A. Directions philosophiques fondamentales et concepts des sciences / V. A. Kanke. M. : Logos, 2004. S. 89.
  19. Heidegger, M. Être et temps / M. Heidegger. M., 1997. S. 128.
  20. Kuhn, T. La structure des révolutions scientifiques / T. Kuhn. M., 1977. S. 63.
  21. Voir : Al-Ani, N. M. Philosophie de la technologie : manuel. allocation / N. M. Al-Ani. SPb., 2004. S. 34.
  22. Voir : Stork, H. Einfuhrung in die Philosophie der Technik / H. Stork. Darmstadt, 1977.
  23. Voir : Lenk, H. Réflexions sur la technologie moderne / H. Lenk. M., 1996.
  24. Marx, K. Capital / K. Marx. T. 1. S. 171.
  25. Ibid. S. 173.
  26. Pour plus de détails, voir : Philosophie de la technologie en Allemagne : [monographie collective]. M., 1989.
  27. Ibid. S. 370.
  28. Pour plus de détails, voir : Bell, D. La troisième révolution technologique et ses possibles conséquences socio-économiques / D. Bell. M., 1990.
  29. Voir : Toffler, E. Nouvelle vague technocratique à l'Ouest / E. Toffler. M., 1986. S. 97.
  30. La nature n'est conquise qu'en s'y soumettant (lat.).
  31. Kanke, Décret VA. op. S. 219.
  32. Ilyin, V.V. Philosophie des sciences / V.V. Ilyin. M., 2003. S. 73.
  33. Ibid. S. 84.
  34. Ortega y Gasset, X. Réflexions sur la technologie // Ortega y Gasset X. Œuvres choisies / X. Ortega y Gasset. M., 2000. S. 172.
  35. Hayek, F. A. Society of the Free / F. A. Hayek. M., 1990. S. 309.
  36. Ockham (Ockham, Occam) William (vers 1285-1349), philosophe scolastique anglais, logicien et écrivain politique religieux, principal représentant du nominalisme du XIVe siècle, moine franciscain. Selon le principe du "rasoir d'Occam", les concepts qui ne sont pas réductibles à des connaissances intuitives et expérimentales devraient être retirés de la science.
  37. Kuznetsov, D. I. Crise de l'ingénierie classique et idéaux humanistes de l'enseignement technique // Philosophie et avenir de la civilisation. Tome 4 / IV Congrès philosophique. M. : Maison d'édition de l'Université d'État de Moscou, 2005. S. 497.
  38. Ilyin, V.V. Décret. op. M., 2003.
  39. Voir : Ezer, E. Logique de l'histoire des sciences // Questions de philosophie. 1995. N° 10. S. 37-44.
  40. Voir : Stepin, V. S. Connaissances théoriques / V. S. Stepin. M., 2000. S. 703-714.

Auteurs : Khabibullin K.N., Korobov V.B., Lugovoi A.A., Tonkonogov A.V.

Nous recommandons des articles intéressants section Notes de cours, aide-mémoire:

Droit des successions. Lit de bébé

Dentisterie. Notes de lecture

Loi environnementale. Lit de bébé

Voir d'autres articles section Notes de cours, aide-mémoire.

Lire et écrire utile commentaires sur cet article.

<< Retour

Dernières nouvelles de la science et de la technologie, nouvelle électronique :

L'existence d'une règle d'entropie pour l'intrication quantique a été prouvée 09.05.2024

La mécanique quantique continue de nous étonner avec ses phénomènes mystérieux et ses découvertes inattendues. Récemment, Bartosz Regula du RIKEN Center for Quantum Computing et Ludovico Lamy de l'Université d'Amsterdam ont présenté une nouvelle découverte concernant l'intrication quantique et sa relation avec l'entropie. L'intrication quantique joue un rôle important dans la science et la technologie modernes de l'information quantique. Cependant, la complexité de sa structure rend sa compréhension et sa gestion difficiles. La découverte de Regulus et Lamy montre que l'intrication quantique suit une règle d'entropie similaire à celle des systèmes classiques. Cette découverte ouvre de nouvelles perspectives dans le domaine de la science et de la technologie de l’information quantique, approfondissant notre compréhension de l’intrication quantique et de son lien avec la thermodynamique. Les résultats de l'étude indiquent la possibilité d'une réversibilité des transformations d'intrication, ce qui pourrait grandement simplifier leur utilisation dans diverses technologies quantiques. Ouvrir une nouvelle règle ...>>

Mini climatiseur Sony Reon Pocket 5 09.05.2024

L'été est une période de détente et de voyage, mais souvent la chaleur peut transformer cette période en un tourment insupportable. Découvrez un nouveau produit de Sony - le mini-climatiseur Reon Pocket 5, qui promet de rendre l'été plus confortable pour ses utilisateurs. Sony a introduit un appareil unique - le mini-conditionneur Reon Pocket 5, qui assure le refroidissement du corps pendant les journées chaudes. Grâce à lui, les utilisateurs peuvent profiter de la fraîcheur à tout moment et en tout lieu en le portant simplement autour du cou. Ce mini-climatiseur est équipé d'un réglage automatique des modes de fonctionnement, ainsi que de capteurs de température et d'humidité. Grâce à des technologies innovantes, Reon Pocket 5 ajuste son fonctionnement en fonction de l'activité de l'utilisateur et des conditions environnementales. Les utilisateurs peuvent facilement régler la température à l'aide d'une application mobile dédiée connectée via Bluetooth. De plus, des T-shirts et des shorts spécialement conçus sont disponibles pour plus de commodité, auxquels un mini climatiseur peut être attaché. L'appareil peut oh ...>>

L'énergie de l'espace pour Starship 08.05.2024

La production d’énergie solaire dans l’espace devient de plus en plus réalisable avec l’avènement de nouvelles technologies et le développement de programmes spatiaux. Le patron de la startup Virtus Solis a partagé sa vision d'utiliser le Starship de SpaceX pour créer des centrales électriques orbitales capables d'alimenter la Terre. La startup Virtus Solis a dévoilé un projet ambitieux visant à créer des centrales électriques orbitales utilisant le Starship de SpaceX. Cette idée pourrait changer considérablement le domaine de la production d’énergie solaire, la rendant plus accessible et moins chère. L'essentiel du plan de la startup est de réduire le coût du lancement de satellites dans l'espace à l'aide de Starship. Cette avancée technologique devrait rendre la production d’énergie solaire dans l’espace plus compétitive par rapport aux sources d’énergie traditionnelles. Virtual Solis prévoit de construire de grands panneaux photovoltaïques en orbite, en utilisant Starship pour livrer l'équipement nécessaire. Cependant, l'un des principaux défis ...>>

Nouvelles aléatoires de l'Archive

La perception du temps dépend de ce que l'on regarde 29.04.2024

La recherche dans le domaine de la psychologie du temps continue de nous surprendre par ses résultats. Les découvertes récentes des scientifiques de l'Université George Mason (États-Unis) se sont révélées tout à fait remarquables : ils ont découvert que ce que nous regardons peut grandement influencer notre perception du temps.

Au cours de l'expérience, 52 participants ont passé une série de tests, estimant la durée de visualisation de diverses images. Les résultats ont été surprenants : la taille et le détail des images ont eu un impact significatif sur la perception du temps. Des scènes plus grandes et moins encombrées créaient l’illusion d’un ralentissement du temps, tandis que des images plus petites et plus chargées donnaient l’impression d’un temps qui s’accélère.

Les chercheurs suggèrent que le désordre visuel ou la surcharge de détails peuvent rendre difficile la perception du monde qui nous entoure, ce qui peut conduire à une perception plus rapide du temps.

Ainsi, il a été démontré que notre perception du temps est étroitement liée à ce que nous regardons. Des images plus grandes et moins chargées créent l’illusion d’un ralentissement du temps, tandis que des scènes plus petites et plus détaillées peuvent donner l’impression que le temps s’accélère. Ces découvertes ouvrent de nouvelles perspectives sur la manière dont notre cerveau traite les informations visuelles et sur la façon dont nous percevons le monde qui nous entoure.

De futures études sont prévues pour confirmer ces résultats et affiner le modèle du système visuel, ainsi que pour étudier l'activité cérébrale lors de la perception.

Fil d'actualité de la science et de la technologie, nouvelle électronique

 

Matériaux intéressants de la bibliothèque technique gratuite :

▪ section radio du site Web. Sélection d'articles

▪ Article quantique. Histoire et essence de la découverte scientifique

▪ article Pourquoi les grands navires de mer ont-ils un épaississement arrondi à l'avant de la partie sous-marine? Réponse détaillée

▪ article Pince ultra rapide. atelier à domicile

▪ article Bande LED dans une lampe de table. Encyclopédie de l'électronique radio et de l'électrotechnique

▪ article Disparition mathématique des allumettes. Concentration secrète

Laissez votre commentaire sur cet article :

Nom:


E-mail (facultatif) :


commenter:





Toutes les langues de cette page

Page principale | bibliothèque | Articles | Plan du site | Avis sur le site

www.diagramme.com.ua

www.diagramme.com.ua
2000-2024