.
-

Histoire de la philosophie > La philosophie contemporaineLa philosohie analytique
La philosophie du langage
La philosophie analytique du langage
La philosophie du langage étudie la nature du sens, la référence, la vérité et les conditions dans lesquelles le langage parvient à représenter le monde. Elle interroge ce que signifie comprendre une phrase, comment les mots se rapportent aux choses, et en vertu de quoi certains énoncés peuvent être vrais ou faux. À ces questions s'ajoutent des problèmes concernant l'intention du locuteur, le contexte d'énonciation et les usages sociaux du langage. Dès ses formulations classiques, elle oscille entre deux pôles : une conception représentationnelle, où le langage est vu comme un miroir du réel ou de la pensée, et une conception pragmatique, où le sens dépend avant tout de l'usage dans des pratiques humaines.

Dans les approches traditionnelles, les mots sont souvent conçus comme des signes d'idées ou d'essences. Aristote établit un schéma où les mots renvoient aux affections de l'âme, elles-mêmes liées aux choses, tandis que John Locke insiste sur le fait que les mots signifient des idées dans l'esprit des locuteurs. Ces conceptions rencontrent rapidement des difficultés : comment expliquer la communication intersubjective si les significations sont des entités mentales privées? Comment rendre compte des erreurs, des fictions ou des termes abstraits? Ces tensions préparent le terrain pour une reformulation radicale au XXe siècle.

La philosophie analytique du langage transforme profondément le champ en plaçant l'analyse logique et linguistique au coeur de la démarche philosophique. Un moment fondateur se trouve chez Gottlob Frege, qui introduit une distinction décisive entre le sens et la référenc. Deux expressions peuvent renvoyer au même objet tout en ayant des modes de présentation différents, ce qui permet d'expliquer la valeur cognitive des identités informatives. Cette orientation est poursuivie par Bertrand Russell, qui élabore la théorie des descriptions définies. Il montre que certaines expressions apparemment référentielles, comme “le roi de France”, peuvent être analysées logiquement sans supposer l'existence de leur référent. Cette analyse permet de résoudre des paradoxes liés à la référence et à la négation. Ludwig Wittgenstein, dans sa première période, propose une théorie du langage comme image logique du monde : les propositions représentent des états de choses possibles en partageant avec eux une structure logique. Le langage est alors conçu comme un système formel dont les limites coïncident avec celles du monde dicible.

Cependant, cette conception formaliste rencontre des limites, notamment pour rendre compte de la diversité des usages ordinaires du langage. Dans sa seconde période, Wittgenstein abandonne l'idée d'une structure logique unique et met l'accent sur les jeux de langage : le sens d'un mot dépend de son usage dans une forme de vie. Cette inflexion ouvre la voie à une approche pragmatique et contextuelle, où comprendre une expression, c'est savoir l'utiliser correctement dans des situations variées. Dans cette lignée, J. L. Austin développe la théorie des actes de langage. Il montre que parler, ce n'est pas seulement décrire le monde, mais aussi accomplir des actions : promettre, ordonner, baptiser. Cette distinction entre actes locutoires, illocutoires et perlocutoires met en lumière la dimension performative du langage. John Searle systématise cette approche en proposant une classification des actes de langage et en analysant les règles qui les gouvernent.

Parallèlement, la philosophie analytique approfondit la question de la référence et du sens des noms propres. Saul Kripke critique les théories descriptivistes héritées de Frege et Russell, en soutenant que les noms propres sont des désignateurs rigides qui renvoient au même objet dans tous les mondes possibles. Il introduit une dimension modale dans l'analyse du langage, montrant que certaines vérités sont nécessaires a posteriori. Hilary Putnam étend cette critique en défendant un externalisme sémantique : la signification d'un terme dépend en partie de facteurs externes, comme l'environnement ou la communauté linguistique, et non seulement des états mentaux individuels.

La philosophie du langage dans la tradition classique.
La réflexion sur le langage naît dans la Grèce antique, où elle s'inscrit d'abord dans une interrogation plus large sur le rapport entre les mots, la pensée et la réalité. Chez Platon, le langage devient un objet explicite d'analyse, notamment dans le Cratyle, où s'affrontent deux thèses : le naturalisme, selon lequel les noms ont une justesse intrinsèque fondée sur la nature des choses, et le conventionnalisme, qui voit dans le langage une institution humaine arbitraire. La question centrale porte sur la capacité des mots à refléter l'essence des choses, et donc sur leur valeur cognitive. Aristote systématise cette réflexion en articulant langage, pensée et réalité dans un cadre logique : les mots sont des symboles des affections de l'âme, elles-mêmes ressemblances des choses. Il développe une théorie des catégories et du jugement, où la structure linguistique exprime la structure de la pensée, posant ainsi les bases de la logique comme étude formelle du discours.

Dans l'Antiquité tardive, les stoïciens approfondissent l'analyse en distinguant entre le signifiant, le signifié et la chose, introduisant la notion de lekton, entité incorporelle correspondant au contenu exprimé. Cette tripartition anticipe certaines distinctions modernes entre expression linguistique, contenu sémantique et référent. Parallèlement, les débats sur la grammaire et la rhétorique se développent, notamment à Alexandrie, où les grammairiens étudient la structure des langues et leurs règles.

La tradition chrétienne reprend ces problématiques en les intégrant à une réflexion théologique. Augustin d'Hippone propose une théorie du signe où les mots sont des signes qui renvoient à des réalités, mais aussi à d'autres signes. Le langage est fondamentalement médiateur et suppose une interprétation. Toutefois, Augustin souligne ses limites : les mots ne suffisent pas à transmettre la connaissance intérieure, qui dépend d'une illumination divine. Le problème du langage devient ainsi lié à celui de la compréhension et de l'enseignement.

Au Moyen Âge, la philosophie du langage connaît un développement technique remarquable dans le cadre de la scolastique. Les logiciens médiévaux analysent la signification à travers des concepts comme la supposition, qui désigne la manière dont un terme se rapporte à ce qu'il signifie dans un contexte donné. Guillaume d'Occam défend une forme de nominalisme : les universaux ne sont pas des réalités indépendantes mais des signes mentaux ou linguistiques. Le langage mental devient une hypothèse centrale : il existerait une structure de pensée prélinguistique, universelle, dont les langues naturelles sont des expressions imparfaites. Ces analyses permettent de traiter des problèmes logiques complexes, comme les propositions modales ou les termes syncatégorématiques.

À la Renaissance et au début de l'époque moderne, la réflexion sur le langage se transforme sous l'influence des sciences et du rationalisme. Les projets de langues universelles cherchent à construire des systèmes linguistiques parfaitement rationnels, capables de refléter l'ordre du monde. Descartes considère le langage comme un signe distinctif de la pensée humaine : la capacité à produire une infinité d'énoncés appropriés à des situations nouvelles témoigne de la rationalité, contrairement aux comportements mécaniques des animaux. Le langage devient ainsi un critère de l'esprit.

Au XVIIe siècle, la grammaire générale et raisonnée, associée notamment à Antoine Arnauld et Claude Lancelot, cherche à dégager les structures universelles du langage fondées sur la logique de la pensée. Le langage est conçu comme une expression de jugements, et sa structure reflète celle de la raison. Cette approche renforce l'idée d'un lien étroit entre syntaxe, logique et cognition.

L'empirisme britannique introduit une inflexion critique. Locke analyse les mots comme des signes d'idées et insiste sur les ambiguïtés et les abus du langage, qui peuvent obscurcir la pensée. Il souligne le caractère conventionnel des signes linguistiques et la nécessité de clarifier leur usage pour éviter les confusions philosophiques. Berkeley critique l'idée que les mots correspondent à des idées abstraites générales, tandis que Hume met en évidence le rôle de l'habitude et de l'association dans la formation des significations. Le langage cesse d'être un miroir transparent de la réalité pour devenir un instrument faillible, lié aux pratiques humaines.

Au XVIIIe siècle, Condillac développe une théorie sensualiste du langage : les signes émergent progressivement à partir des besoins et des expériences sensibles. Le langage structure la pensée autant qu'il l'exprime, ce qui introduit une dimension génétique dans son étude. Rousseau propose une origine expressive du langage, liée aux passions plutôt qu'à la raison, mettant en avant sa dimension sociale et affective.

Avec Kant, la réflexion sur le langage n'occupe pas une place centrale, mais elle s'inscrit dans une théorie plus large des conditions de possibilité de la connaissance. Le langage est implicitement lié aux jugements et aux catégories de l'entendement, mais il n'est pas analysé pour lui-même. Ce relatif retrait sera comblé au XIXe siècle, notamment avec le développement de la linguistique.

Au XIXe siècle, Wilhelm von Humboldt conçoit le langage comme une activité créatrice (energeia) plutôt que comme un produit figé (ergon). Chaque langue exprime une vision du monde spécifique, ce qui introduit l'idée d'une relativité linguistique. Le langage n'est plus seulement un outil de représentation, mais une force structurante de la pensée et de la culture.

Parallèlement, la logique connaît un renouveau avec des figures comme George Boole, qui formalise les opérations logiques, préparant une analyse plus rigoureuse du langage. Cependant, avant la philosophie analytique, ces avancées restent encore partiellement séparées d'une théorie philosophique unifiée du langage.

Ainsi, avant le tournant analytique, la philosophie du langage oscille-t-elle entre deux grandes conceptions : le langage comme reflet de la pensée et du réel, et le langage comme pratique humaine conventionnelle et évolutive. Ces tensions préparent le terrain pour la transformation radicale opérée au XXe siècle, où le langage devient l'objet central de l'analyse philosophique et le moyen privilégié de résoudre ou de dissoudre les problèmes traditionnels.
-

La philosophie du langage 
dans les traditions non-occidendales

À travers ces traditions non occidentales, plusieurs thèmes récurrents apparaissent : la tension entre le langage et la réalité, ordinairement marquée par une méfiance envers la capacité des mots à saisir l'absolu; l'importance de la convention et du contexte dans la production du sens; et, dans certains cas, l'idée que le langage possède une dimension ontologique ou sacrée. Ces approches enrichissent la compréhension globale du langage, en mettant en avant des aspects (pragmatiques, holistes ou religieux) qui compléteront, plus tard, les analyses formelles et logiques développées dans la tradition analytique.

Dans les traditions indiennes, la réflexion sur le langage se développe très tôt dans un cadre étroitement lié à la ritualité védique, à la grammaire et à la métaphysique. Le sanscrit, langue sacrée, fait l'objet d'une analyse systématique avec Pāṇini, dont la grammaire formalise avec une précision remarquable les règles de formation des mots et des phrases. Cette entreprise ne se limite pas à une description linguistique : elle vise à préserver l'exactitude des textes sacrés et à comprendre la structure du langage comme système. Les écoles débattent de la nature du sens. La Mīmāṃsā soutient que les mots possèdent un pouvoir intrinsèque de signification et que les phrases védiques sont éternelles. En contraste, les bouddhistes, notamment Dignāga et Dharmakīrti, développent une théorie nominaliste où les mots ne renvoient pas à des universaux réels mais fonctionnent par exclusion (apoha) : un terme signifie en excluant ce qu'il n'est pas. La question du rapport entre mot, concept et réalité devient centrale, et le langage est souvent vu comme conventionnel et indirect, incapable de saisir le réel ultime. Dans cette même aire culturelle, Bhartṛhari propose une théorie profondément originale avec la notion de sphoṭa. Selon lui, le sens ne résulte pas de l'addition des mots, mais se manifeste comme une totalité indivisible saisie d'un seul coup par l'esprit. Le langage est une réalité fondamentale, liée au principe ultime (śabda-brahman), et la distinction entre langage et pensée tend à s'effacer. Cette conception holiste anticipe certaines intuitions modernes sur la primauté du contexte et de la globalité du sens.

Dans la tradition chinoise, la réflexion sur le langage s'inscrit dans des préoccupations éthiques, politiques et cosmologiques. Chez Confucius, la question de la rectification des noms (zhèngmíng) occupe une place centrale : les mots doivent correspondre correctement aux réalités sociales et morales qu'ils désignent, faute de quoi l'ordre social se désagrège. Le langage est ici normatif, lié à la justesse des relations humaines. En contraste, Laozi, associé au taoïsme, insiste sur les limites du langage : le Dao véritable ne peut être nommé, et les distinctions linguistiques introduisent des oppositions artificielles dans une réalité fondamentalement indifférenciée. Le langage est alors vu comme un obstacle à la saisie du réel. Les penseurs du courant des "logiciens" ou "école des noms", comme Gongsun Long, questionnent des paradoxes linguistiques et logiques, célèbres pour des thèses comme "le cheval blanc n'est pas un cheval". Ces analyses mettent en évidence les ambiguïtés de la référence et les relations entre noms et catégories, dans un style qui rappelle certains problèmes de la logique occidentale. Toutefois, cette tradition reste marginale par rapport aux grandes orientations confucéennes et taoïstes.

Dans le monde arabo-musulman, la philosophie du langage se développe à l'intersection de la théologie, de la grammaire et de la logique. Les débats portent notamment sur la nature du Coran : est-il créé ou incréé, et quel est le statut de ses mots? Les grammairiens, comme Sibawayh, analysent la structure de l'arabe avec une grande rigueur, tandis que les théologiens examinent la relation entre langage divin et langage humain. Al-Farabi et Avicenne intègrent la logique aristotélicienne et développent une théorie où les mots signifient des concepts, eux-mêmes liés aux choses. La question de l'universalité de la logique face à la diversité des langues est explicitement posée : la logique est-elle indépendante des langues naturelles ou en dépend-elle?

Dans la tradition juive médiévale, des penseurs comme Moïse Maïmonide abordent le langage dans le cadre de la théologie négative. Le langage humain est jugé inadéquat pour décrire Dieu : on ne peut parler de lui que par négation ou analogie. Cette réflexion souligne les limites structurelles du langage lorsqu'il s'applique à des réalités transcendantes.

Dans les traditions africaines, bien que moins systématisées dans des traités formels, des réflexions importantes émergent autour du langage comme pratique sociale et performative. Dans de nombreuses cultures, la parole possède une puissance d'action : dire, c'est faire. Les proverbes, les récits et les formes orales structurent la pensée et la transmission du savoir. Le langage est indissociable de son contexte d'énonciation, et sa signification dépend des relations sociales, des intentions et des situations. Cette dimension pragmatique, centrale, anticipe certaines orientations modernes qui mettent l'accent sur l'usage plutôt que sur la structure abstraite.

Au Japon, la réflexion sur le langage se développe notamment dans le cadre de la pensée bouddhiste et de l'esthétique. Des penseurs influencés par le zen insistent sur l'insuffisance des mots pour saisir l'expérience immédiate, privilégiant des formes d'expression indirectes ou paradoxales, comme les kōan. Le langage est vu comme un outil provisoire, utile mais fondamentalement limité.

La philosophie analytique du langage.
À la fin du XIXe siècle, la logique et les mathématiques traversent une crise profonde : les paradoxes de la théorie des ensembles, notamment celui découvert par Bertrand Russell en 1902, ébranlent les fondements mêmes de l'arithmétique. C'est dans ce climat d'urgence intellectuelle que Gottlob Frege, mathématicien et logicien, pose les premières pierres de ce qui deviendra la philosophie du langage analytique. Dans sa Begriffsschrift de 1879, puis dans les Grundlagen der Arithmetik de 1884, Frege construit un système de notation logique entièrement nouveau, capable d'exprimer des relations que la logique aristotélicienne traditionnelle ne pouvait pas saisir. Il introduit la distinction fondamentale entre le sens (Sinn) et la référence (Bedeutung) dans son article de 1892 : deux expressions peuvent désigner le même objet tout en ayant des contenus cognitifs différents : "l'étoile du matin" et " l'étoile du soir" réfèrent toutes deux à Vénus, mais ne signifient pas la même chose. Cette distinction va hanter la philosophie du langage pendant plus d'un siècle.

Russell reprend l'héritage fregéen et l'infléchit dans une direction nouvelle. Profondément préoccupé par les entités problématiques que le langage ordinaire semble postuler (le roi actuel de France, le carré rond, la montagne d'or), il développe en 1905 sa célèbre théorie des descriptions définies, exposée dans l'article On Denoting. Une description comme "le roi actuel de France est chauve" ne doit pas être analysée comme attribuant une propriété à un individu existant : elle se décompose logiquement en une série de quantifications. Il existe quelque chose qui est roi de France, une seule chose l'est, et cette chose est chauve. La phrase est ainsi fausse, mais elle n'est pas dépourvue de sens, et elle n'impose pas l'existence d'une entité mystérieuse. C'est la méthode de l'analyse logique : dissoudre les apparences grammatiques trompeuses en formes logiques transparentes.

Moore, contemporain de Russell à Cambridge, apporte une sensibilité différente. Moins technicien, plus attentif au sens commun, il pratique une philosophie du langage fondée sur la clarification conceptuelle et la résistance aux paradoxes des idéalistes. Sa défense du réalisme ordinaire, son attention aux nuances du discours quotidien, préfigurent ce que l'on appellera plus tard la philosophie du langage ordinaire. Mais c'est Russell et, bientôt, Wittgenstein qui dominent la scène cambridgienne.
Ludwig Wittgenstein arrive à Cambridge en 1911, envoyé à Russell par Frege lui-même. Leur relation est électrique, tumultueuse, fondatrice. Dans le Tractatus Logico-Philosophicus, publié en 1921, Wittgenstein élabore une théorie picturale du sens : une proposition est une image de la réalité, elle montre comment les choses se tiendraient si elle était vraie. Le monde est la totalité des faits, non des choses; le langage est la totalité des propositions signifiantes, et toute proposition signifiante est une fonction de vérité de propositions élémentaires qui dépeignent des états de choses atomiques. Tout ce qui ne peut pas être dit (l'éthique, l'esthétique, le mystique, la forme logique elle-même) doit être tu. Le Tractatus se clôt sur cette phrase célèbre : "Ce dont on ne peut parler, il faut le taire". L'ouvrage fascine autant par sa rigueur que par son étrange poésie métaphysique.

Le Cercle de Vienne s'empare du Tractatus avec un enthousiasme qui en déforme quelque peu l'esprit. Schlick, Carnap, Neurath et leurs collègues voient dans l'oeuvre de Wittgenstein une confirmation de leur empirisme logique : seules les propositions vérifiables empiriquement ou analytiquement vraies ont un sens; la métaphysique traditionnelle est un ensemble de pseudo-propositions, dépourvues de signification cognitive. Le principe de vérifiabilité devient le couteau avec lequel on entend trancher entre le sens et le non-sens. Carnap radicalise cette position dans son article de 1932 Dépassement de la métaphysique par l'analyse logique du langage : les énoncés de Heidegger, par exemple, ne sont pas faux, ils sont littéralement vides de sens. Cette position, malgré son attrait polémique, se heurte rapidement à une difficulté : le principe de vérifiabilité lui-même ne semble pas vérifiable empiriquement. Les positivistes logiques passeront des décennies à le reformuler sans jamais trouver de version entièrement satisfaisante.

Pendant ce temps, Wittgenstein lui-même commence à douter de son oeuvre de jeunesse. De retour à Cambridge dans les années 1930 après une longue retraite, il développe une pensée radicalement différente, qui ne sera publiée qu'après sa mort sous le titre Recherches philosophiques (1953). La théorie picturale s'effondre : le langage n'est pas une image du monde, il est une multitude de pratiques sociales, de jeux de langage (Sprachspiele), chacun obéissant à ses propres règles, aucun n'étant plus fondamental que les autres. La signification d'un mot n'est pas un objet qu'il désigne ni une image mentale qu'il évoque : c'est son usage dans la pratique. "La signification d'un mot est son usage dans le langage". Cette formule inaugurale transforme complètement les données du problème. Comprendre un langage, ce n'est pas décoder des représentations; c'est maîtriser une forme de vie.

Les Recherches introduisent aussi l'argument contre le langage privé, l'un des passages les plus commentés de toute la philosophie du XXe siècle. Wittgenstein montre qu'un langage dont les règles seraient purement privées (où chaque terme ne renverrait qu'à une sensation intérieure inaccessible aux autres) serait en réalité impossible. Car sans critère public de correction, rien ne distinguerait suivre une règle de croire seulement la suivre. Le langage est constitutif de la forme de vie sociale ; il ne peut pas être une affaire purement individuelle. Saul Kripke proposera en 1982 une lecture sceptique de cet argument : Wittgenstein n'apporterait pas une solution au paradoxe du suivi de règles, il montrerait seulement qu'une réponse sceptique communautaire (nous suivons une règle quand notre usage concorde avec celui de la communauté) est la seule réponse praticable. Cette interprétation, très contestée, déclenche une littérature colossale.

La philosophie du langage ordinaire, qui s'épanouit à Oxford dans les années 1940 et 1950, s'inscrit dans le sillage du second Wittgenstein tout en développant ses propres méthodes. Gilbert Ryle publie en 1949 Le Concept d'esprit où il démonte ce qu'il appelle le "dogme du fantôme dans la machine" : la conception cartésienne de l'esprit comme substance séparée du corps repose sur une erreur catégorielle, une confusion entre des concepts appartenant à des niveaux logiques différents. John Langshaw Austin, peut-être le plus méticuleux de ce groupe, pratique une philosophie du langage fondée sur l'attention extrêmement patiente aux distinctions que le langage ordinaire a sécrétées au fil des siècles. Dans Quand dire c'est faire (How to Do Things with Words, 1962, publié posthumément), il élabore la théorie des actes de langage : toute énonciation accomplit quelque chose au-delà de la description d'un état de choses. Il distingue l'acte locutoire (dire quelque chose), l'acte illocutoire (faire quelque chose en le disant : promettre, ordonner, déclarer) et l'acte perlocutoire (produire un effet sur l'interlocuteur). Cette tripartition va structurer durablement la pragmatique linguistique.

Paul Grice, lui aussi issu de l'école oxfordienne, inaugure dans les années 1960 et 1970 une théorie de la communication fondée sur la rationalité coopérative. Dans son article Logic and Conversation (1975), il pose le principe de coopération : les interlocuteurs contribuent aux échanges selon les buts et la direction que ceux-ci requièrent. De ce principe découlent quatre maximes (quantité, qualité, relation, manière) dont la violation délibérée et manifeste produit des implicatures conversationnelles : des contenus communiqués sans être littéralement dits. Quand quelqu'un dit "Pierre sait jouer du piano" en réponse à une question sur sa cuisine, l'implicature est claire : Pierre ne cuisine pas bien. La pragmatique gricéenne ouvre une brèche entre le sens linguistique et le sens communicationnel qui alimentera des décennies de recherche.

De l'autre côté de l'Atlantique, la philosophie analytique du langage prend un tour différent sous l'influence de Willard Van Orman Quine. Dans Two Dogmas of Empiricism (1951), Quine s'attaque aux deux présupposés fondamentaux de l'empirisme logique : la distinction analytique/synthétique et le réductionnisme (l'idée que chaque énoncé peut être confronté séparément à l'expérience). Pour Quine, cette distinction n'est pas tenable : il n'existe pas de vérités purement analytiques, vraies indépendamment de tout fait, car les notions de synonymie et d'analyticité sont circulaires. Et les énoncés ne font pas face à l'expérience un par un mais en blocs, comme une toile de croyances (web of belief) dont les noeuds périphériques sont plus directement en contact avec l'expérience que les noeuds centraux,  logique et mathématiques comprises. Cette thèse dite de holisme confirmationnel ou thèse Duhem-Quine ébranle le projet positiviste dans ses fondements.

Quine va plus loin encore avec sa doctrine de l'indétermination de la traduction, exposée dans Le Mot et la Chose (Word and Object, 1960). Considérons un linguiste qui tente de traduire le langage d'une tribu inconnue à partir du seul comportement verbal observé. Quand un locuteur dit "gavagai" en voyant un lapin, le linguiste ne peut pas savoir si ce terme signifie "lapin", "partie de lapin non détachée", "stade temporel de lapin" ou toute autre hypothèse compatible avec le comportement observable. Il n'existe aucun fait objectif qui fixerait la bonne traduction : toute traduction est une hypothèse parmi d'autres, et plusieurs traductions incompatibles peuvent être également adéquates à tous les faits comportementaux. L'indétermination du sens est radicale. Cette position, souvent comparée au relativisme bien qu'elle en diffère, heurte l'intuition commune avec une force provocatrice.

Donald Davidson, élève et interlocuteur privilégié de Quine, accepte certaines de ses conclusions tout en les retournant dans une direction différente. Dans Truth and Meaning (1967), il propose de construire une théorie du sens comme une théorie de la vérité au sens de Tarski : comprendre la signification d'une phrase, c'est savoir dans quelles conditions elle est vraie. Ce programme sémantique, dit programme davidsonnien, ne prétend pas réduire le sens à la vérité, mais utiliser les conditions de vérité comme véhicule de la signification. Davidson rejette aussi le schéma dualiste entre un schème conceptuel et un contenu (l'idée que des esprits ou des cultures différents peuvent organiser différemment une même réalité brute : il n'y a pas de réalité non conceptualisée à laquelle différents schèmes correspondraient diversement). Ce rejet du relativisme conceptuel le distingue nettement des lectures relativistes de Quine.

Tandis que Davidson travaille à Cambridge et Princeton, une révolution s'opère en sémantique formelle sous l'impulsion de Richard Montague. Contre le second Wittgenstein et l'école du langage ordinaire, Montague soutient qu'il n'existe pas de différence de principe entre les langues naturelles et les langages formels : les premières sont susceptibles de recevoir une sémantique rigoureuse dans le cadre de la logique intensionnelle. Sa grammaire, développée entre 1968 et 1973, fonde la sémantique compositionnelle moderne : le sens d'une expression complexe est une fonction déterminée du sens de ses parties et de la manière dont elles se combinent. Ce principe de compositionnalité, souvent associé à Frege qui en avait déjà l'intuition, devient le credo de la sémantique formelle.

Le débat sur la référence connaît un tournant décisif dans les années 1970 avec les travaux de Saul Kripke et Hilary Putnam. Contre la théorie descriptiviste héritée de Frege et Russell , selon laquelle un nom propre signifie la description que l'on associe à son porteur. Kripke défend dans La Logique des noms propres (Naming and Necessity, 1980, tiré de conférences de 1970) une théorie causale-historique de la référence. Un nom propre comme "Aristote" ne signifie pas "le philosophe grec qui fut le précepteur d'Alexandre et l'auteur de l'Éthique à Nicomaque" : il réfère directement à l'individu, grâce à une chaîne causale qui remonte à l'acte initial de baptême ou de désignation. Si toutes les descriptions associées à Aristote s'avéraient fausses, il n'en resterait pas moins que le nom réfère à cet individu particulier, et non à quiconque satisferait ces descriptions.

Kripke introduit aussi la notion de désignateur rigide : un terme qui désigne le même individu dans tous les mondes possibles où cet individu existe. Les noms propres et les termes d'espèces naturelles ("eau", "or", "tigre") sont des désignateurs rigides. "Eau" désigne H2O dans tous les mondes possibles, même si dans certains mondes les habitants ignorent cette composition chimique. Hilary Putnam développe de son côté la thèse que la signification n'est pas dans la tête : deux individus psychologiquement identiques, dont l'un vit sur Terre et l'autre sur une Terre Jumelle où la substance qui ressemble à l'eau est XYZ, auront les mêmes états mentaux mais des significations différentes pour le mot "eau". La signification dépend de l'environnement externe, pas seulement des états internes du locuteur. L'externalisme sémantique est né.

Ces positions soulèvent immédiatement un problème pour la philosophie de l'esprit : si le sens est externe, comment rend-on compte du rapport entre signification et contenu mental? Le débat entre internalisme et externalisme, qui traverse toute la philosophie du langage et de l'esprit des années 1980 et 1990, ne se conclut pas facilement. Tyler Burge radicalise encore l'externalisme avec ses expériences de pensée sur l'arthrite : un individu qui croit souffrir d'arthrite dans les muscles (alors que l'arthrite ne touche que les articulations) a des pensées différentes d'un individu vivant dans une communauté où "arthrite" désigne aussi les douleurs musculaires, et ce, même si leurs états cérébraux sont identiques.

Dans les années 1980 et 1990, la pragmatique prend une place croissante. Les travaux de Dan Sperber et Deidre Wilson proposent avec leur théorie de la pertinence (1986) une alternative à la pragmatique gricéenne : la communication ne repose pas sur le respect de maximes conventionnelles, mais sur un seul principe cognitif : les êtres humains traitent de l'information de manière à maximiser la pertinence, c'est-à-dire l'effet cognitif obtenu pour le moindre coût de traitement. Ce cadre unificateur entend rendre compte de toutes les inférences pragmatiques (implicatures, ironie, métaphore, ostension) dans un seul mécanisme.

John Searle, élève d'Austin, poursuit et systématise la théorie des actes de langage dans Les Actes de langage (1969) et Sens et expression (1979). Il distingue le sens littéral de l'énoncé et la force illocutoire, affine la taxinomie des actes illocutoires et examine les actes de langage indirects,  cas où ce qui est dit est différent de ce qui est accompli, comme "Pouvez-vous me passer le sel?" qui est grammaticalement une question mais illocutoirement une requête. Searle développe aussi une théorie de l'intentionnalité qui ancre la philosophie du langage dans la philosophie de l'esprit : les actes de langage sont des expressions d'états intentionnels dont ils héritent les conditions de satisfaction.

La fin du XXe siècle voit s'affronter deux grandes orientations. D'un côté, la sémantique formelle et la philosophie du langage de tradition logique (Montague, David Lewis, Robert Stalnaker, Scott Soames) qui travaillent sur les opérateurs modaux, les contextes, les attitudes propositionnelles et les énoncés indexicaux dans un cadre rigoureusement formel. De l'autre, la tradition pragmatique et cognitive ( Sperber et Wilson, mais aussi les philosophes du langage ordinaire tardifs et les théoriciens du discours) qui insistent sur le rôle du contexte, des intentions et de la cognition dans la constitution du sens. Le minimalisme sémantique (la thèse que les conditions de vérité sont déterminées par la seule sémantique, sans recours à la pragmatique) s'oppose au contextualisme, selon lequel le contexte pénètre la sémantique elle-même jusque dans les énoncés les plus simples.

Jason Stanley et Zoltán Szabó représentent un courant qui tente de réconcilier ces tensions par une sensibilité précise à la structure syntaxique des langues naturelles : les phénomènes que les contextualistes attribuent à des processus pragmatiques libres seraient en réalité la réalisation de variables cachées dans la syntaxe. Ce programme de sémantique des variables cachées fait le pont entre la linguistique formelle et la philosophie du langage.

Au tournant du XXIe siècle, François Recanati propose une distinction entre le contenu minimal d'une phrase (le sens littéral, indépendant du contexte) et le contenu exprimé (ce que la phrase dit dans un contexte donné), en soutenant que des processus pragmatiques primaires, non conscients, non inférentiels, façonnent ce contenu exprimé. Cette théorie du sens littéral et de la modulation contextuelle offre un cadre plus souple que la dichotomie rigide entre sémantique et pragmatique.

La philosophie analytique du langage du XXIe siècle est traversée par des questionnements nouveaux. L'essor des sciences cognitives et des neurosciences amène certains philosophes (Paul et Patricia Churchland, mais aussi des théoriciens plus proches de la tradition analytique comme Mark Johnson et George Lakoff) à enraciner la sémantique dans la cognition incarnée et les structures métaphoriques de la pensée. La philosophie du langage social, développée par Sally Haslanger et Rae Langton notamment, examine comment les mots forgent des réalités sociales, catégorisent, incluent ou excluent : comment le discours peut être performatif au sens fort, constituant des identités et des hiérarchies. Le discours de haine, la pornographie, les stéréotypes véhiculés par le langage deviennent des objets philosophiques légitimes dans la tradition analytique, qui s'enrichit ainsi d'une dimension politique et éthique longtemps absente.

.


Dictionnaire Idées et méthodes
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
[Aide][Recherche sur Internet]

© Serge Jodra, 2026. - Reproduction interdite.