|
|
| . |
|
||||||
| Histoire de la philosophie > La philosophie contemporaine > La philosohie analytique |
| La
philosophie du langage
La philosophie analytique du langage |
| La
philosophie
du langage étudie la nature du sens, la référence, la vérité et
les conditions dans lesquelles le langage parvient à représenter le monde.
Elle interroge ce que signifie comprendre une phrase, comment les mots
se rapportent aux choses, et en vertu de quoi certains énoncés peuvent
être vrais ou faux. À ces questions s'ajoutent des problèmes concernant
l'intention du locuteur, le contexte d'énonciation et les usages sociaux
du langage. Dès ses formulations classiques,
elle oscille entre deux pôles : une conception représentationnelle, où
le langage est vu comme un miroir du réel ou de la pensée, et une conception
pragmatique, où le sens dépend avant tout de l'usage dans des pratiques
humaines.
Dans les approches traditionnelles, les mots sont souvent conçus comme des signes d'idées ou d'essences. Aristote établit un schéma où les mots renvoient aux affections de l'âme, elles-mêmes liées aux choses, tandis que John Locke insiste sur le fait que les mots signifient des idées dans l'esprit des locuteurs. Ces conceptions rencontrent rapidement des difficultés : comment expliquer la communication intersubjective si les significations sont des entités mentales privées? Comment rendre compte des erreurs, des fictions ou des termes abstraits? Ces tensions préparent le terrain pour une reformulation radicale au XXe siècle. La philosophie analytique du langage transforme profondément le champ en plaçant l'analyse logique et linguistique au coeur de la démarche philosophique. Un moment fondateur se trouve chez Gottlob Frege, qui introduit une distinction décisive entre le sens et la référenc. Deux expressions peuvent renvoyer au même objet tout en ayant des modes de présentation différents, ce qui permet d'expliquer la valeur cognitive des identités informatives. Cette orientation est poursuivie par Bertrand Russell, qui élabore la théorie des descriptions définies. Il montre que certaines expressions apparemment référentielles, comme “le roi de France”, peuvent être analysées logiquement sans supposer l'existence de leur référent. Cette analyse permet de résoudre des paradoxes liés à la référence et à la négation. Ludwig Wittgenstein, dans sa première période, propose une théorie du langage comme image logique du monde : les propositions représentent des états de choses possibles en partageant avec eux une structure logique. Le langage est alors conçu comme un système formel dont les limites coïncident avec celles du monde dicible. Cependant, cette conception formaliste rencontre des limites, notamment pour rendre compte de la diversité des usages ordinaires du langage. Dans sa seconde période, Wittgenstein abandonne l'idée d'une structure logique unique et met l'accent sur les jeux de langage : le sens d'un mot dépend de son usage dans une forme de vie. Cette inflexion ouvre la voie à une approche pragmatique et contextuelle, où comprendre une expression, c'est savoir l'utiliser correctement dans des situations variées. Dans cette lignée, J. L. Austin développe la théorie des actes de langage. Il montre que parler, ce n'est pas seulement décrire le monde, mais aussi accomplir des actions : promettre, ordonner, baptiser. Cette distinction entre actes locutoires, illocutoires et perlocutoires met en lumière la dimension performative du langage. John Searle systématise cette approche en proposant une classification des actes de langage et en analysant les règles qui les gouvernent. Parallèlement, la philosophie analytique approfondit la question de la référence et du sens des noms propres. Saul Kripke critique les théories descriptivistes héritées de Frege et Russell, en soutenant que les noms propres sont des désignateurs rigides qui renvoient au même objet dans tous les mondes possibles. Il introduit une dimension modale dans l'analyse du langage, montrant que certaines vérités sont nécessaires a posteriori. Hilary Putnam étend cette critique en défendant un externalisme sémantique : la signification d'un terme dépend en partie de facteurs externes, comme l'environnement ou la communauté linguistique, et non seulement des états mentaux individuels. La philosophie
du langage dans la tradition classique.
Dans l'Antiquité tardive, les stoïciens approfondissent l'analyse en distinguant entre le signifiant, le signifié et la chose, introduisant la notion de lekton, entité incorporelle correspondant au contenu exprimé. Cette tripartition anticipe certaines distinctions modernes entre expression linguistique, contenu sémantique et référent. Parallèlement, les débats sur la grammaire et la rhétorique se développent, notamment à Alexandrie, où les grammairiens étudient la structure des langues et leurs règles. La tradition chrétienne reprend ces problématiques en les intégrant à une réflexion théologique. Augustin d'Hippone propose une théorie du signe où les mots sont des signes qui renvoient à des réalités, mais aussi à d'autres signes. Le langage est fondamentalement médiateur et suppose une interprétation. Toutefois, Augustin souligne ses limites : les mots ne suffisent pas à transmettre la connaissance intérieure, qui dépend d'une illumination divine. Le problème du langage devient ainsi lié à celui de la compréhension et de l'enseignement. Au Moyen Âge, la philosophie du langage connaît un développement technique remarquable dans le cadre de la scolastique. Les logiciens médiévaux analysent la signification à travers des concepts comme la supposition, qui désigne la manière dont un terme se rapporte à ce qu'il signifie dans un contexte donné. Guillaume d'Occam défend une forme de nominalisme : les universaux ne sont pas des réalités indépendantes mais des signes mentaux ou linguistiques. Le langage mental devient une hypothèse centrale : il existerait une structure de pensée prélinguistique, universelle, dont les langues naturelles sont des expressions imparfaites. Ces analyses permettent de traiter des problèmes logiques complexes, comme les propositions modales ou les termes syncatégorématiques. À la Renaissance et au début de l'époque moderne, la réflexion sur le langage se transforme sous l'influence des sciences et du rationalisme. Les projets de langues universelles cherchent à construire des systèmes linguistiques parfaitement rationnels, capables de refléter l'ordre du monde. Descartes considère le langage comme un signe distinctif de la pensée humaine : la capacité à produire une infinité d'énoncés appropriés à des situations nouvelles témoigne de la rationalité, contrairement aux comportements mécaniques des animaux. Le langage devient ainsi un critère de l'esprit. Au XVIIe siècle, la grammaire générale et raisonnée, associée notamment à Antoine Arnauld et Claude Lancelot, cherche à dégager les structures universelles du langage fondées sur la logique de la pensée. Le langage est conçu comme une expression de jugements, et sa structure reflète celle de la raison. Cette approche renforce l'idée d'un lien étroit entre syntaxe, logique et cognition. L'empirisme britannique introduit une inflexion critique. Locke analyse les mots comme des signes d'idées et insiste sur les ambiguïtés et les abus du langage, qui peuvent obscurcir la pensée. Il souligne le caractère conventionnel des signes linguistiques et la nécessité de clarifier leur usage pour éviter les confusions philosophiques. Berkeley critique l'idée que les mots correspondent à des idées abstraites générales, tandis que Hume met en évidence le rôle de l'habitude et de l'association dans la formation des significations. Le langage cesse d'être un miroir transparent de la réalité pour devenir un instrument faillible, lié aux pratiques humaines. Au XVIIIe siècle, Condillac développe une théorie sensualiste du langage : les signes émergent progressivement à partir des besoins et des expériences sensibles. Le langage structure la pensée autant qu'il l'exprime, ce qui introduit une dimension génétique dans son étude. Rousseau propose une origine expressive du langage, liée aux passions plutôt qu'à la raison, mettant en avant sa dimension sociale et affective. Avec Kant, la réflexion sur le langage n'occupe pas une place centrale, mais elle s'inscrit dans une théorie plus large des conditions de possibilité de la connaissance. Le langage est implicitement lié aux jugements et aux catégories de l'entendement, mais il n'est pas analysé pour lui-même. Ce relatif retrait sera comblé au XIXe siècle, notamment avec le développement de la linguistique. Au XIXe siècle, Wilhelm von Humboldt conçoit le langage comme une activité créatrice (energeia) plutôt que comme un produit figé (ergon). Chaque langue exprime une vision du monde spécifique, ce qui introduit l'idée d'une relativité linguistique. Le langage n'est plus seulement un outil de représentation, mais une force structurante de la pensée et de la culture. Parallèlement, la logique connaît un renouveau avec des figures comme George Boole, qui formalise les opérations logiques, préparant une analyse plus rigoureuse du langage. Cependant, avant la philosophie analytique, ces avancées restent encore partiellement séparées d'une théorie philosophique unifiée du langage. Ainsi, avant le tournant
analytique, la philosophie du langage oscille-t-elle entre deux grandes
conceptions : le langage comme reflet de la pensée et du réel, et le
langage comme pratique humaine conventionnelle et évolutive. Ces tensions
préparent le terrain pour la transformation radicale opérée au XXe
siècle, où le langage devient l'objet central de l'analyse philosophique
et le moyen privilégié de résoudre ou de dissoudre les problèmes traditionnels.
La philosophie
analytique du langage.
Russell reprend l'héritage fregéen et l'infléchit dans une direction nouvelle. Profondément préoccupé par les entités problématiques que le langage ordinaire semble postuler (le roi actuel de France, le carré rond, la montagne d'or), il développe en 1905 sa célèbre théorie des descriptions définies, exposée dans l'article On Denoting. Une description comme "le roi actuel de France est chauve" ne doit pas être analysée comme attribuant une propriété à un individu existant : elle se décompose logiquement en une série de quantifications. Il existe quelque chose qui est roi de France, une seule chose l'est, et cette chose est chauve. La phrase est ainsi fausse, mais elle n'est pas dépourvue de sens, et elle n'impose pas l'existence d'une entité mystérieuse. C'est la méthode de l'analyse logique : dissoudre les apparences grammatiques trompeuses en formes logiques transparentes. Moore, contemporain
de Russell à Cambridge, apporte une sensibilité
différente. Moins technicien, plus attentif au sens commun, il pratique
une philosophie du langage fondée sur la clarification conceptuelle et
la résistance aux paradoxes des idéalistes.
Sa défense du réalisme ordinaire, son attention aux nuances du discours
quotidien, préfigurent ce que l'on appellera plus tard la philosophie
du langage ordinaire. Mais c'est Russell et, bientôt, Wittgenstein
qui dominent la scène cambridgienne.
Le Cercle de Vienne s'empare du Tractatus avec un enthousiasme qui en déforme quelque peu l'esprit. Schlick, Carnap, Neurath et leurs collègues voient dans l'oeuvre de Wittgenstein une confirmation de leur empirisme logique : seules les propositions vérifiables empiriquement ou analytiquement vraies ont un sens; la métaphysique traditionnelle est un ensemble de pseudo-propositions, dépourvues de signification cognitive. Le principe de vérifiabilité devient le couteau avec lequel on entend trancher entre le sens et le non-sens. Carnap radicalise cette position dans son article de 1932 Dépassement de la métaphysique par l'analyse logique du langage : les énoncés de Heidegger, par exemple, ne sont pas faux, ils sont littéralement vides de sens. Cette position, malgré son attrait polémique, se heurte rapidement à une difficulté : le principe de vérifiabilité lui-même ne semble pas vérifiable empiriquement. Les positivistes logiques passeront des décennies à le reformuler sans jamais trouver de version entièrement satisfaisante. Pendant ce temps, Wittgenstein lui-même commence à douter de son oeuvre de jeunesse. De retour à Cambridge dans les années 1930 après une longue retraite, il développe une pensée radicalement différente, qui ne sera publiée qu'après sa mort sous le titre Recherches philosophiques (1953). La théorie picturale s'effondre : le langage n'est pas une image du monde, il est une multitude de pratiques sociales, de jeux de langage (Sprachspiele), chacun obéissant à ses propres règles, aucun n'étant plus fondamental que les autres. La signification d'un mot n'est pas un objet qu'il désigne ni une image mentale qu'il évoque : c'est son usage dans la pratique. "La signification d'un mot est son usage dans le langage". Cette formule inaugurale transforme complètement les données du problème. Comprendre un langage, ce n'est pas décoder des représentations; c'est maîtriser une forme de vie. Les Recherches introduisent aussi l'argument contre le langage privé, l'un des passages les plus commentés de toute la philosophie du XXe siècle. Wittgenstein montre qu'un langage dont les règles seraient purement privées (où chaque terme ne renverrait qu'à une sensation intérieure inaccessible aux autres) serait en réalité impossible. Car sans critère public de correction, rien ne distinguerait suivre une règle de croire seulement la suivre. Le langage est constitutif de la forme de vie sociale ; il ne peut pas être une affaire purement individuelle. Saul Kripke proposera en 1982 une lecture sceptique de cet argument : Wittgenstein n'apporterait pas une solution au paradoxe du suivi de règles, il montrerait seulement qu'une réponse sceptique communautaire (nous suivons une règle quand notre usage concorde avec celui de la communauté) est la seule réponse praticable. Cette interprétation, très contestée, déclenche une littérature colossale. La philosophie du langage ordinaire, qui s'épanouit à Oxford dans les années 1940 et 1950, s'inscrit dans le sillage du second Wittgenstein tout en développant ses propres méthodes. Gilbert Ryle publie en 1949 Le Concept d'esprit où il démonte ce qu'il appelle le "dogme du fantôme dans la machine" : la conception cartésienne de l'esprit comme substance séparée du corps repose sur une erreur catégorielle, une confusion entre des concepts appartenant à des niveaux logiques différents. John Langshaw Austin, peut-être le plus méticuleux de ce groupe, pratique une philosophie du langage fondée sur l'attention extrêmement patiente aux distinctions que le langage ordinaire a sécrétées au fil des siècles. Dans Quand dire c'est faire (How to Do Things with Words, 1962, publié posthumément), il élabore la théorie des actes de langage : toute énonciation accomplit quelque chose au-delà de la description d'un état de choses. Il distingue l'acte locutoire (dire quelque chose), l'acte illocutoire (faire quelque chose en le disant : promettre, ordonner, déclarer) et l'acte perlocutoire (produire un effet sur l'interlocuteur). Cette tripartition va structurer durablement la pragmatique linguistique. Paul Grice, lui aussi issu de l'école oxfordienne, inaugure dans les années 1960 et 1970 une théorie de la communication fondée sur la rationalité coopérative. Dans son article Logic and Conversation (1975), il pose le principe de coopération : les interlocuteurs contribuent aux échanges selon les buts et la direction que ceux-ci requièrent. De ce principe découlent quatre maximes (quantité, qualité, relation, manière) dont la violation délibérée et manifeste produit des implicatures conversationnelles : des contenus communiqués sans être littéralement dits. Quand quelqu'un dit "Pierre sait jouer du piano" en réponse à une question sur sa cuisine, l'implicature est claire : Pierre ne cuisine pas bien. La pragmatique gricéenne ouvre une brèche entre le sens linguistique et le sens communicationnel qui alimentera des décennies de recherche. De l'autre côté de l'Atlantique, la philosophie analytique du langage prend un tour différent sous l'influence de Willard Van Orman Quine. Dans Two Dogmas of Empiricism (1951), Quine s'attaque aux deux présupposés fondamentaux de l'empirisme logique : la distinction analytique/synthétique et le réductionnisme (l'idée que chaque énoncé peut être confronté séparément à l'expérience). Pour Quine, cette distinction n'est pas tenable : il n'existe pas de vérités purement analytiques, vraies indépendamment de tout fait, car les notions de synonymie et d'analyticité sont circulaires. Et les énoncés ne font pas face à l'expérience un par un mais en blocs, comme une toile de croyances (web of belief) dont les noeuds périphériques sont plus directement en contact avec l'expérience que les noeuds centraux, logique et mathématiques comprises. Cette thèse dite de holisme confirmationnel ou thèse Duhem-Quine ébranle le projet positiviste dans ses fondements. Quine va plus loin encore avec sa doctrine de l'indétermination de la traduction, exposée dans Le Mot et la Chose (Word and Object, 1960). Considérons un linguiste qui tente de traduire le langage d'une tribu inconnue à partir du seul comportement verbal observé. Quand un locuteur dit "gavagai" en voyant un lapin, le linguiste ne peut pas savoir si ce terme signifie "lapin", "partie de lapin non détachée", "stade temporel de lapin" ou toute autre hypothèse compatible avec le comportement observable. Il n'existe aucun fait objectif qui fixerait la bonne traduction : toute traduction est une hypothèse parmi d'autres, et plusieurs traductions incompatibles peuvent être également adéquates à tous les faits comportementaux. L'indétermination du sens est radicale. Cette position, souvent comparée au relativisme bien qu'elle en diffère, heurte l'intuition commune avec une force provocatrice. Donald Davidson, élève et interlocuteur privilégié de Quine, accepte certaines de ses conclusions tout en les retournant dans une direction différente. Dans Truth and Meaning (1967), il propose de construire une théorie du sens comme une théorie de la vérité au sens de Tarski : comprendre la signification d'une phrase, c'est savoir dans quelles conditions elle est vraie. Ce programme sémantique, dit programme davidsonnien, ne prétend pas réduire le sens à la vérité, mais utiliser les conditions de vérité comme véhicule de la signification. Davidson rejette aussi le schéma dualiste entre un schème conceptuel et un contenu (l'idée que des esprits ou des cultures différents peuvent organiser différemment une même réalité brute : il n'y a pas de réalité non conceptualisée à laquelle différents schèmes correspondraient diversement). Ce rejet du relativisme conceptuel le distingue nettement des lectures relativistes de Quine. Tandis que Davidson travaille à Cambridge et Princeton, une révolution s'opère en sémantique formelle sous l'impulsion de Richard Montague. Contre le second Wittgenstein et l'école du langage ordinaire, Montague soutient qu'il n'existe pas de différence de principe entre les langues naturelles et les langages formels : les premières sont susceptibles de recevoir une sémantique rigoureuse dans le cadre de la logique intensionnelle. Sa grammaire, développée entre 1968 et 1973, fonde la sémantique compositionnelle moderne : le sens d'une expression complexe est une fonction déterminée du sens de ses parties et de la manière dont elles se combinent. Ce principe de compositionnalité, souvent associé à Frege qui en avait déjà l'intuition, devient le credo de la sémantique formelle. Le débat sur la référence connaît un tournant décisif dans les années 1970 avec les travaux de Saul Kripke et Hilary Putnam. Contre la théorie descriptiviste héritée de Frege et Russell , selon laquelle un nom propre signifie la description que l'on associe à son porteur. Kripke défend dans La Logique des noms propres (Naming and Necessity, 1980, tiré de conférences de 1970) une théorie causale-historique de la référence. Un nom propre comme "Aristote" ne signifie pas "le philosophe grec qui fut le précepteur d'Alexandre et l'auteur de l'Éthique à Nicomaque" : il réfère directement à l'individu, grâce à une chaîne causale qui remonte à l'acte initial de baptême ou de désignation. Si toutes les descriptions associées à Aristote s'avéraient fausses, il n'en resterait pas moins que le nom réfère à cet individu particulier, et non à quiconque satisferait ces descriptions. Kripke introduit aussi la notion de désignateur rigide : un terme qui désigne le même individu dans tous les mondes possibles où cet individu existe. Les noms propres et les termes d'espèces naturelles ("eau", "or", "tigre") sont des désignateurs rigides. "Eau" désigne H2O dans tous les mondes possibles, même si dans certains mondes les habitants ignorent cette composition chimique. Hilary Putnam développe de son côté la thèse que la signification n'est pas dans la tête : deux individus psychologiquement identiques, dont l'un vit sur Terre et l'autre sur une Terre Jumelle où la substance qui ressemble à l'eau est XYZ, auront les mêmes états mentaux mais des significations différentes pour le mot "eau". La signification dépend de l'environnement externe, pas seulement des états internes du locuteur. L'externalisme sémantique est né. Ces positions soulèvent immédiatement un problème pour la philosophie de l'esprit : si le sens est externe, comment rend-on compte du rapport entre signification et contenu mental? Le débat entre internalisme et externalisme, qui traverse toute la philosophie du langage et de l'esprit des années 1980 et 1990, ne se conclut pas facilement. Tyler Burge radicalise encore l'externalisme avec ses expériences de pensée sur l'arthrite : un individu qui croit souffrir d'arthrite dans les muscles (alors que l'arthrite ne touche que les articulations) a des pensées différentes d'un individu vivant dans une communauté où "arthrite" désigne aussi les douleurs musculaires, et ce, même si leurs états cérébraux sont identiques. Dans les années 1980 et 1990, la pragmatique prend une place croissante. Les travaux de Dan Sperber et Deidre Wilson proposent avec leur théorie de la pertinence (1986) une alternative à la pragmatique gricéenne : la communication ne repose pas sur le respect de maximes conventionnelles, mais sur un seul principe cognitif : les êtres humains traitent de l'information de manière à maximiser la pertinence, c'est-à-dire l'effet cognitif obtenu pour le moindre coût de traitement. Ce cadre unificateur entend rendre compte de toutes les inférences pragmatiques (implicatures, ironie, métaphore, ostension) dans un seul mécanisme. John Searle, élève d'Austin, poursuit et systématise la théorie des actes de langage dans Les Actes de langage (1969) et Sens et expression (1979). Il distingue le sens littéral de l'énoncé et la force illocutoire, affine la taxinomie des actes illocutoires et examine les actes de langage indirects, cas où ce qui est dit est différent de ce qui est accompli, comme "Pouvez-vous me passer le sel?" qui est grammaticalement une question mais illocutoirement une requête. Searle développe aussi une théorie de l'intentionnalité qui ancre la philosophie du langage dans la philosophie de l'esprit : les actes de langage sont des expressions d'états intentionnels dont ils héritent les conditions de satisfaction. La fin du XXe siècle voit s'affronter deux grandes orientations. D'un côté, la sémantique formelle et la philosophie du langage de tradition logique (Montague, David Lewis, Robert Stalnaker, Scott Soames) qui travaillent sur les opérateurs modaux, les contextes, les attitudes propositionnelles et les énoncés indexicaux dans un cadre rigoureusement formel. De l'autre, la tradition pragmatique et cognitive ( Sperber et Wilson, mais aussi les philosophes du langage ordinaire tardifs et les théoriciens du discours) qui insistent sur le rôle du contexte, des intentions et de la cognition dans la constitution du sens. Le minimalisme sémantique (la thèse que les conditions de vérité sont déterminées par la seule sémantique, sans recours à la pragmatique) s'oppose au contextualisme, selon lequel le contexte pénètre la sémantique elle-même jusque dans les énoncés les plus simples. Jason Stanley et Zoltán Szabó représentent un courant qui tente de réconcilier ces tensions par une sensibilité précise à la structure syntaxique des langues naturelles : les phénomènes que les contextualistes attribuent à des processus pragmatiques libres seraient en réalité la réalisation de variables cachées dans la syntaxe. Ce programme de sémantique des variables cachées fait le pont entre la linguistique formelle et la philosophie du langage. Au tournant du XXIe siècle, François Recanati propose une distinction entre le contenu minimal d'une phrase (le sens littéral, indépendant du contexte) et le contenu exprimé (ce que la phrase dit dans un contexte donné), en soutenant que des processus pragmatiques primaires, non conscients, non inférentiels, façonnent ce contenu exprimé. Cette théorie du sens littéral et de la modulation contextuelle offre un cadre plus souple que la dichotomie rigide entre sémantique et pragmatique. La philosophie analytique du langage du XXIe siècle est traversée par des questionnements nouveaux. L'essor des sciences cognitives et des neurosciences amène certains philosophes (Paul et Patricia Churchland, mais aussi des théoriciens plus proches de la tradition analytique comme Mark Johnson et George Lakoff) à enraciner la sémantique dans la cognition incarnée et les structures métaphoriques de la pensée. La philosophie du langage social, développée par Sally Haslanger et Rae Langton notamment, examine comment les mots forgent des réalités sociales, catégorisent, incluent ou excluent : comment le discours peut être performatif au sens fort, constituant des identités et des hiérarchies. Le discours de haine, la pornographie, les stéréotypes véhiculés par le langage deviennent des objets philosophiques légitimes dans la tradition analytique, qui s'enrichit ainsi d'une dimension politique et éthique longtemps absente. |
| . |
|
|
|
|||||||||||||||||||||||||||||||
|