quinta-feira, 28 de junho de 2018


This is an draft of the introduction of the book Philosophical Semantics, to be published by Cambridge Scholars Publishing in 2018/2


The old orthodoxy of the philosophy of language that prevailed during the first half of the twentieth century was marked by an insistence on the centrality of meaning, an eroded semantic principle of verifiability, naive correspondentialism, an elementary distinction between analytic and synthetic, crude descriptivist-internalist theories of proper names and general terms, a monolithic dichotomy between the necessary a priori and the contingent a posteriori… Could it nevertheless come closer to the truth than the now dominant causal-externalist orthodoxy?
     This book was written in the conviction that this question should be answered affirmatively. I am convinced that the philosophy of language of the first half of the twentieth century that formed the bulk of the old orthodoxy was often more virtuous, more comprehensive, more profound and closer to the truth than the approaches of the new orthodoxy, and that its rough-hewn insights were often more powerful, particularly in the works of philosophers like Wittgenstein, Frege, Russell and even Husserl. My conjecture is that the reason lies in the socio-cultural background. Even if also motivated by a desire to approach the authentic consensual truth only possible for science, philosophy in itself has its own epistemic place as a cultural conjectural endeavor, unavoidably harboring metaphorical components which can be approached to those of the fine arts, and comprehensive aims approachable to those of religion, even if it is in itself independent of both (Costa 2002). At its best, the first half of the twentieth century preserved these traits. One reason might be that this was still a very elitist and hierarchical intellectual world, while our present academic world is much more regimented by a scientifically oriented pragmatic society, which does not make it the best place for philosophy as an effort to reach surveillability. A more important reason is that great culture is the result of great conflict. And the period between the end of the nineteenth century and the Second World War was a time of increasing social turmoil with tragic dimensions. This conflict cast doubt on all established cultural values, creating the right atmosphere for the emergence of intellectuals and artists disposed to develop sweepingly original innovations. This could be felt not only in philosophy and the arts, but also in fields reserved for particular sciences.
     Philosophy of language since the Second World War has been much more a form of strongly established academic ‘normal philosophy,’ to borrow Thomas Kuhn’s term. On the one hand, it was a continuation of the old orthodoxy, represented in the writings of philosophers like John Austin, P. F. Strawson, Michael Dummett, John Searle, Ernst Tugendhat, Jürgen Habermas… whose side I usually take. On the other hand, we have seen the emergence of what is called the new orthodoxy, founded by Saul Kripke and Keith Donnellan in the early seventies and later elaborated by Hilary Putnam, David Kaplan, and many others. In opposition to the old orthodoxy, this approach emphasizes externalism about meaning, causalism, and anti-cognitivism. This new orthodoxy has become the contemporary mainstream position in philosophy of language.
     I do not deny the philosophical relevance of this new orthodoxy. Nor do I reject its originality and dialectical force. Perhaps I am more indebted to it than I wish to admit. Nevertheless, it has already long since lost much of its creative impetus, and it now has transformed itself into a kind of scholastic discussion among specialists. Moreover, the value of the new orthodoxy in philosophy of language is in my judgment predominantly negative, since most of its conclusions fall short of the truth. This means that the significance of its ideas consists mostly in their being dialectically relevant challenges, which, I believe, could be adequately answered by an improved reformulation of old, primarily descriptivist-internalist-cognitivist views of meaning and its connection with reference that are to some extent developed in the present book. Indeed, I intend to show that the views of the old orthodoxy could be reformulated in much more sophisticated ways, not only answering the challenges of the new orthodoxy, but also suggesting solutions to problems that the contemporary philosophy of language hasn’t addressed as well as it should.
     My approach to the topics considered here consists in gradually developing and defending a primarily internalist, cognitivist and neodescriptivist analysis of the nature of the cognitive meanings of our expressions and their inherent mechanisms of reference. But this approach will be indirect since the analysis will be supported by a critical examination of some central views of traditional analytic philosophy, particularly those of Wittgenstein and Frege. Furthermore, such explanations will be supplemented by a renewed reading and defense of the idea that existence is a higher-order property, a detailed revaluation of the verificationist explanation of cognitive meaning, and a reassess­ment of the correspondence theory of truth, which I see as complementary to the here developed form of verificationism, involving coherence and dependent on a correct treatment of the epistemic problem of perception.
     The obvious assumption that makes my project prima facie plausible is the idea that language is a system of rules, some of which should be the most proper sources of meaning. Following Ernst Tugendhat, I assume that the most central meaning-rules are those responsible for what Aristotle called apophantic speech: representational discourse, whose meaning-rules I call semantic-cognitive rules. Indeed, it seems at first highly plausible to think that the cognitive meaning (i.e., informative content and not mere linguistic meaning) of our representational language cannot be given by anything other than semantic-cognitive rules or associations of such rules. Our knowledge of these typically conventional rules is – as will be shown – usually tacit, implicit, non-reflexive. That is, we are able to use them correctly in a cognitive way, though we find almost unsurmountable difficulties when trying to analyze them in a linguistically explicit way, particularly when they belong to philosophically relevant concepts.
     My ultimate aim should be to investigate the structure of semantic-cognitive rules by examining our basic referential expressions – singular terms, general terms and also declarative sentences – in order to furnish an appropriate explanation of their reference mechanisms. In the present book, I do this only partially, often in the appendices, summarizing ideas already presented in my last book (2014, Chs. 2 to 4), aware that they still require development. I proceed in this way because in the main text of the present book my main concern is rather to justify and clarify my own assumptions on the philosophy of meaning and reference.
1. Ernst Tugendhat’s analysis of singular predicative statements
In developing these views, I soon realized that my main goal could be seen as essentially a way to revive a program already speculatively developed by Ernst Tugendhat in his classical work Traditional and Analytical Philosophy: Lectures on the Philosophy of Language.[1] This book, first published in 1976, can be considered the swansong of the old orthodoxy, defending a non-externalist and basically non-properly-causalist program that was gradually forgotten during the next decades under the ever-growing influence of the new causal-externalist orthodoxy. Tugendhat’s strategy in developing this program can be understood in its core as a semantic analysis of the fundamental singular predicative statement. This statement is not only epistemically fundamental, it is also the indispensable basis for building our first-order truth-functional language. In summary, given a statement of the form Fa, he suggested that:

1)     The meaning of the singular term a should be its identification rule (Identifikationsregel),
2)     the meaning of the general term F should be its application rule (Verwendungsregel), which I also call a characterization or (preferably) an ascription rule,
3)     the meaning of the complete singular predicative statement Fa should be its verifiability rule (Verifikationsregel), which results from the collaborative application of the first two rules.
(Cf. Tugendhat & Wolf 1983: 235-6; Tugendhat 1976: 259, 484, 487-8)

In this case, the verifiability rule is obtained by the sequential application of the first two rules in such a way that the identification rule of the singular term must be applied first, in order to then apply the general term’s ascription rule. Thus, for instance, Yuri Gagarin, the first man to orbit the Earth from above its atmosphere, gazed out of his space capsule and exclaimed: ‘The Earth is blue!’ In order to make this a true statement, he should first have identified the Earth by applying the identification rule of the proper name ‘Earth.’ Then, based on the result of this application, he would have been able to apply the ascription rule of the predicative expression ‘…is blue.’ In this form of combined application, these two rules work as a kind of verifiability rule for the statement ‘The Earth is blue.’ That is: if these rules can be conjunctively applied, then the statement is true, otherwise, it is false. Tugendhat saw this not only as a form of verificationism, but also as a kind of correspondence theory of truth – a conclusion that I find correct, although rejected by some of his readers.[2]
     In order to test Tugendhat’s view, we can critically ask if it is not possible that we really first apply the ascription rule of a predicative expression. For example, suppose that one night you see something burning at a distance without knowing what is on fire. Only after approaching it do you see that it is an old, abandoned factory. It may seem that in this example you first applied the ascription rule and later the identification rule. However, in suggesting this you forget that to see the fire one must first direct one’s eyes at a certain spatiotemporal spot, thereby localizing the individualized place where something is on fire. Hence, a primitive identification rule for a place at a certain time needed to be first generated and applied.
     That is, initially the statement will not be: ‘That old building is on fire,’ but simply ‘Over there… is fire.’ Later on, when you are closer to the building, you can make a more precise statement. Thus, in this same way, while looking out of his space capsule’s porthole, Gagarin could think, ‘Out there below the porthole it is blue,’ before saying ‘The Earth is blue.’ But even in this case, the ascription rule cannot be applied without the earlier application of some identification rule, even if it is one that is only able to identify a vague spatiotemporal region from the already identified porthole. To expand on the objection, one could consider a statement like ‘It is all white fog.’ Notwithstanding, even here, ‘It is all…’ expresses an identification rule (of my whole visual field covering the place where I am right now) for the singular term, while ‘…white fog’ expresses the ascription rule that can afterward be applied to the whole place where I am. Even if there is no real property, as when I state ‘It is all darkness,’ what I mean can be translated into the true statement ‘Here and now there is no light.’ And from this statement, it is clear that I first apply the indexical identification rule for the here and now and afterward see the inapplicability of the ascription rule for lightness expressed by the negation ‘…there is no light’ corresponding to the predicative expression ‘…is all darkness.’
     Tugendhat reached his conclusions through purely speculative considerations, without analyzing the structure of these rules and without answering the many obvious external criticisms of the program, like the numerous well-known objections already made against verificationism. But what is extraordinary is that he was arguably right, since the present book will make it hard to contest his main views.[3]

[1] Original German title: Vorlesungen zur Einführung in die sprachanalytische Philosophie.
[2] An antecedent of this is J. L. Austin’s correspondence view, according to which an indexical statement (e.g., ‘This rose is red’) is said to be true when the historical fact correlated with its demonstrative convention (here represented by the demonstrative ‘this’) is of the type established by the sentence’s descriptive convention (the red rose type) (Austin 1950: 122). This was a first approximation of conventionalist strategies later employed by Dummett in his interpretation of Frege (Cf. 1981: 194, 229) and still later more cogently explored by Tugendhat under some Husserlian influence.
[3] Tugendhat’s thesis crosses over peculiarities of linguistic interaction. Consider a conversational implicature: – ‘Do you know how to cook?’ – ‘I am French,’ which implicates the statement ‘I know how to cook.’ (Recanati 2004: 5) Obviously, this does not effect Tugendhat’s thesis, for the proper and implied meanings posed by the statement ‘I am French’ would then be established by means of verifiability rules.
[4] The ideal language tradition (steered by the logical analysis of language) and the natural language tradition (steered by the real work of natural language) represent opposed (though arguably also complementary) views. The first was founded by Frege, Russell and the early Wittgenstein. It was also later strongly associated with philosophers of logical positivism, particularly Rudolf Carnap. With the rise of Nazism in Europe, most philosophers associated with logical positivism fled to the USA, where they strongly influenced American analytic philosophy. The philosophies of W. V-O. Quine, Donald Davidson, and later Saul Kripke, Hilary Putnam and David Kaplan, along with the present mainstream philosophy of language, with its metaphysics of reference, are in indirect ways later American developments of ideal language philosophy. What I prefer to call the natural language tradition was represented after the Second World War in Oxford by the sometimes dogmatically restrictive ‘ordinary language philosophy.’ Its main theorists were J. L. Austin, Gilbert Ryle, and P. F. Strawson, although it had an antecedent in the less restrictive natural language philosophy of the later Wittgenstein and, still earlier, in G. E. Moore’s commonsense approach. Natural language philosophy also affected American philosophy through relatively isolated figures like Paul Grice and John Searle, whose academic influence has foreseeably not been as great... For the initial historical background, see J. O. Urmson (1956).
[5] After his broad exposition of contemporary philosophy, K. A. Appiah concluded: ‘The subject is not a collection of separate problems that can be addressed independently. Issues in epistemology and the philosophy of language reappear in the discussions of philosophy of mind, morals, politics, law, science, and religion… What is the root of the philosophical style is a desire to give a general and systematic account of our thought and experience, one that is developed critically, in the light of evidence and arguments.’ (2003: 377-378) Because of this, the hardest task for those committed to comprehensive coherence is to reach a position that enables the evaluation of the slightest associations among issues belonging to the most diverse domains of our conceptual network (Cf. Kenny 1993: 9).

segunda-feira, 11 de junho de 2018



Claudio Costa/UFRN/Brasil
e-mail: ruvstof@gmail.com

A natural number can only be a trope if there is a way to understand it as some kind of spatiotemporally localizable property. In this paper, I develop a strategy to explain applied natural numbers as having this property. I also show how this strategy can be extended to what is common to all equinumerous applied numbers, namely, to abstractly considered natural numbers.
Key-words: trope theory, natural number, ontology, philosophy of mathematics

Trope theory aims to give an ontological account of the whole world based on empirical building blocks called tropes. I characterize a trope as a spatiotemporally localizable property, notwithstanding its vagueness. This characterization is easily applicable to properties like qualities and forms, external or internal, simple or complex, the last ones being homogeneous or heterogeneous. It is also easily applicable to relational properties, insofar as they are spatiotemporally localizable. Material objects are bundles of compresent tropes. Even very diffuse things like the electromagnetic field of the Earth or the Thirty Years War should be understood in tropical terms since they can be seen as made up of very diffusely located spatiotemporal properties.
  A vulnerable point of trope theory is that it seems unable to explain the so-called abstract entities like those of mathematics. Against this limitation, my aim in this paper is to sketch a strategy to explain natural numbers as tropes. This can be of obvious interest since natural numbers are touchstones of mathematics.


A preliminary point concerns the usual strategy to construct universals as sets or sums of strictly similar tropes (Williams 1953 I: 9; Campbell 1981). The universal of redness, for instance, is the set of all tropes of red that are strictly similar one another. However, this answer has well-known shortcomings. First, some consider sets to be abstract entities, universals in a Platonic or some Aristotelian sub-Platonic sense. Second, there is a well-known problem concerning our treatment of strict similarities: Either they are instances of the universal of strict similarity, contaminating trope-theory with realism on universals, or they are also tropes. If they are tropes, however, then two strict similarities between tropes must be strictly similar one another, what commits us to conceding a second-order strict similarity. But then we would soon need a third-order strict similarity of second-order ones, falling into an infinite regress. A further problem is that sets can change the number of their elements, which means that sets of strictly similar tropes could easily change their size, while universals cannot change their size since they do not have sizes. An appeal to open sets would not be helpful since although they exist in our minds and as written symbols, it is doubtful if they exist at the ontological level.
  My way to deal with the problem is free from these burdens. It is simpler and inspired in the particularism of English empiricism. Instead of appealing to sets, I suggest that to build tropical universals we proceed like a geometer building a proof by means of an example drawn on a blackboard: the example serves as a model for all cases (Berkeley 1710, Intro., sec. 12). Doing so, all that we need in order to construct a universal is just one trope that we arbitrarily choose to use as a model. Then we define the universal as either this model or any other trope that is strictly similar to this model. That is, calling T* the trope T used as a model, we can define the universal as follows:

Universal for a trope T (Df.): T* or any other trope strictly similar to T*.

Giving a simple example, suppose I am acquainted with a patch of vermillion of cinnabar, a very specific color. Now, suppose I intend to use this trope as the model-trope Tv*. This allows me to build the universal of this color as the trope Tv* or any other trope strictly similar to Tv*. Certainly, Tv* in practice does not need to remain the same. You can choose any other strictly similar patch as a model. That is, the models can be randomly chosen. In this way, we are free from the urge to build higher-order strict similarities, since we may consider any chosen trope T in terms of its first-order strict similarity or lack of strict similarity with Tv*. Moreover, there is no question about size in this operational view of universals, since we dropped the appeal to sets.


Coming to our attempt to build numbers as tropes, empiricist accounts can give us a first clue. Locke, for example, saw the number as a primary quality (1690, Book II, Ch. viii). Indeed, the bed in my room has the property of being one, independently of the sensory system of the perceiver. For applied small natural numbers, this seems to work: I can perceive two, three, or even six coins at a glance; and some savants can perceive more than hundred coins at a glance, although they are also unable to perceive large numbers without counting. Penelope Maddy noted that the ten fingers of her hands are located on her hands (1884: 87). Moreover, applied numbers can even move together with their bearers. For instance, the 26 stones that make up Stonehenge were originally transported to Wiltshire from Wales.
   Although these applied numbers seem to satisfy our definition of tropes, since they are spatiotemporally localizable, they are surely not at the same level of the counted bed, coins, fingers and stones. Since Frege, we have known that applied numbers are dependent on the conceptual ways we have to divide up the world. Thus, I count my 10 fingers but only my 2 hands, we count 26 stones but only a single Stonehenge in Wiltshire. Even if we agree to consider these applied numbers as tropical entities, we must consider them as dependent on the kind of thing counted, namely, as higher-order properties of concepts associated with the higher-order property of existence (Frege 1884: sec. 55)… Now, understanding the concept (differently from Frege) as a conceptual rule, not as rule actualized in someone’s mind, but as a dispositionally localizable trope, we can read existence as the (higher-order) property of this dispositional rule of its effective or warranted application. Moreover, this effectively possible application of a rule must be also a higher-order localizable dispositional trope-property indirectly belonging to what is said to exist, since it will be the higher-order tropical property of such a dispositional conceptual rule of being applied in some domain, which the real application of this conceptual rule proves. (Because of this, a thing can exist even if its conceptual rule does not actualize, insofar as if this rule were actual it would be effectively applicable to it, which makes the existence of things independent of the actual existence of cognitive subjects or rules.)
  Now, when we count different applications of a conceptual rule, what we get are applied numbers added to existence. Consider, as Frege would do, the case of the empty concept of ‘moons of Venus’. Symbolizing the conceptual rule for ‘moon of Venus’ as V, we can symbolize the idea that Venus has 0 moons as ~x (Vx). The concept ‘moons of Earth’ applies to only one object. Symbolizing the conceptual rule expressed by ‘…moons of Earth’ as E, we can render the idea that the earth has one moon as x [Ex & (y) (Ey → y = x)]. Symbolizing the conceptual expression ‘…moons of Mars’ as M, we can symbolize the idea that Mars has two moons as x [(Mx) (My) & ~(x = y) & (z) (Mz → (z = x) v (z = y))]… Important is that these existences and applied numbers can be seen as spatiotemporally localizable higher-order possible properties or tropes belonging to possible first-order tropical possible conceptual rules. The number 2 associated with the concept ‘moons of Mars’ applies to Phobos and Deimos, what means that this applied number is located presently and in the surroundings of Mars and not in a distant Galaxy in a remote future or in a Platonic heaven. Our only moon exists circling the earth and this existence is not in Andromeda. Finally, there are the 0 moons of Venus, in the sense that the conceptual rule of ‘moon of Venus’ isn’t effectively applicable to its surroundings as expected.
  After identifying the applied natural number with the dispositional tropical property of the enumeration as an idealized counting of the effective application (existence) of dispositional tropical conceptual rules, what we need to do is to separate (or abstract) the numerical trope from the dispositional tropical conceptual rules in question and the dispositional application of them as attributions of existence. I suggest we can represent in a separated form these numerical tropes as spatiotemporally located dispositional sets-tropes of applications that in this way represent applied numbers separated from their associated conceptual rules. So, we can represent the numerical property of not being locally applied of the conceptual rule of ‘Venus moons’ using a set containing as its only member the lack of the applicability of an attribution of existence or {~a} (= 0). We can represent the numerical property of being locally applied only once, using the set that contains only one application of some conceptual rule or: {a} (= 1). We can represent the property of being applied twice using the set that contains a double trope of application or {a, {a}} (= 2). We can represent the property of being applied three times as the set {a, {a}, {{a}}} (= 3), and so on. Since {a, {a}, {{a}}} (=3) contains {a, {a}} (=2) that contains {a} (=1), each new representation shows the right kind of complexity, containing its antecedents. Moreover, it is essential to see that although we are here distinguishing applied numbers by means of sets, these are not pure sets! (We are not trying to build natural numbers from nothing, as do mathematician like von Neumann or Zermelo, beginning with the null set.) We are dealing with spatiotemporally located sets of higher-order trope-properties of ideally countable applications of conceptual-rules (I say ideally countable because great natural numbers are not countable to human beings). The two members set-trope of Mars moons is spatiotemporally located around Mars, the one member set-trope of earth moons is spatiotemporally located around the earth, and the null member set of Venus moons is a set of non-applicability, since there isn’t any moon spatiotemporally located in the surroundings of Venus, as expected – no numerical tropes are to be found.
At this point, a mathematician could object that we have explained only applied, not abstract numbers. Mathematicians are not interested in counting the number of fingers on their hands. When they perform the addition 7 + 5 = 12, they are considering numbers in abstraction from conceptual divisions of the world. What really matters, they say, are the numbers of abstract arithmetic, the universals, the numbers-in-themselves, independently of their satisfaction by ideally countable material objects. Reducing numbers to numerical sets of located applications, we explain an applied number but not what is common to all equinumerous applied numbers. The natural number 3, formulated as {a, {a}, {{a}}} is a triad, but not what is common to all triads, namely, the universal three, the three-in-itself.
   The proper way to represent what is common to all triads seems to be the appeal to things like a Russellian set of all sets of the same kind. However, this seems to lead us to his conclusion that the universe has an infinite number of objects (1919, Ch. XIII), which is too demanding, considering how infinite an actual infinite must be. Moreover, without assuming tropes, these sets seem to be abstract objects. In any chosen way, we seem to overpopulate our world with an infinite number of abstract objects.
  However, in the same way as we have constructed universal quality-tropes without appealing to sets, we can also construct universal numerical tropes without appealing to sets. As we have seen, an applied natural number can be understood as a trope, since it is spatiotemporally localizable as a second-order numerical property of a dispositional conceptual rule resulting from its (ideally countable) applications. Consequently, in order to account for the universal as the number-in-itself, we can also appeal to our disjunctive device.
  In this case, for instance, it is conceivable that the number 2 in itself would be a disjunction between a set instantiated by a chosen located higher-order set-trope of enumerable dispositional applications used as a model (e.g., the number 2 in the statement ‘I have 2 hands’) or any other strictly similar (equinumerous) located set-trope. Now, in order to get the number 2 as the ‘abstract universal’, the ‘2-in-itself’, all we need to do is to apply the same procedure we have applied to get universals from our usual quality-tropes to a numerical set-trope of located applications {a, {a}} understood as a selected model. For instance:

Number 2 (Df.) = a selected model understood as a higher-order set-trope of located countable applications {a, {a}}*, or any further higher-order set-trope of located countable dispositional applications strictly similar (equinumerous) to {a, {a}}*.

 In this sense, the natural number as a universal (or ‘abstract object’) can be defined as:
A higher-order located (ideally) countable set-trope taken as a model or of any higher-order located (ideally) countable set-trope strictly similar (equinumerous) to the model.

Note that such a universal or abstract object remains empirical since it is a higher-order disjunctive numerical set-trope of located dispositional applications that can be found as something dispersed across our whole spatiotemporal world.
  Assuming a definition like that, we neither stumble over controversial pure or infinite sets nor seem to remain limited to particular instances or directly committed to any empirical constituent of material objects. The foreseeable conclusion is that even the abstract world of mathematics is built of thin higher-order tropes. Such tropes, like some others, would be situated at the peak of a building whose originating genetic-epistemic foundations are our more feasible perceptually given quality-tropes, although retaining the distinctive property of being spatiotemporally located, even if in an extremely diffuse way. A final advantage of the proposed view is that it is consonant with the applicability of mathematics to the empirical world. Mathematical entities are applicable because, like our world, they are made up of tropes.

Berkeley, G. (1975). Of the Principles of Human Knowledge (1710), Philosophical Works Including the Work on Vision, (ed.) M. R. Ayers. London: Everyman.
Campbell, K. (1990). Abstract Particulars. Oxford: Blackwell.
- (1981). ‘The Metaphysics of Abstract Particulars.’ Midwest Studies in Philosophy 6, 477-486.  
Frege, G. (1996). Die Grundlagen der Arithmetik: Eine Logisch Mathematische Untersuchung über den Begriff des Zahls (1884)Stuttgart: Reclam.
Locke, J. (1975). Essay Concerning Human Understanding (1690), (ed.) P. H. Nidditch. Oxford: Oxford University Press.
Maddy, P. (1990). Realism in Mathematics. Oxford: Oxford University Press.
Russell, B. (1929). Introduction to Mathematical Philosophy (1919)London: George Allen & Unwin.

Williams, D. C. (1953). ‘The Elements of Being.’ Review of Metaphysics, vol. 7 (2), 3-18, 171-192.


ESBOÇO sobre um assunto sobre o qual sou um quase leigo. Trata-se de uma tentativa de salvar a distinção.


Se você acredita que eu penso que é preciso fazer uma opção entre ser de direita ou de esquerda, devo decepcioná-lo. No que se segue quero defender que é desejável a existência de uma saudável dialética entre direita e esquerda e que ela é intrínseca a um sistema político verdadeiramente democrático.
   Para começar, quero tirar de foco aquilo que foge ao escopo de nossa discussão, que são os sistemas totalitários ditos de esquerda ou de direita, que não deveriam ao menos pertencer à contemporaneidade. Quero também excluir deformações sociais populistas, como esquerda e direita regressivas, que não são o que aparentam ser, apontam para uma deformação manipuladora do processo democrático e portanto possuem um elemento totalitário. Suponho, como base necessária ao meu argumento, uma sociedade bem formada, na qual as leis sejam cumpridas e onde exista transparência e ‘fairness’ na atividade política.[1]
   Dito isso, minha intenção é procurar esclarecer os verdadeiros papéis da esquerda e da direita em uma sociedade legitimamente democrática. Escolho usar esses termos semanticamente carregados e ambíguos ao invés dos termos mais neutros, que poderiam ser libertarismo (libertarianism) versus liberalismo igualitarista (liberal igualitarism), ou conservadorismo versus liberalismo, pois quero desafiar concepções arraigadas nas mentes de muitos e que me parecem claramente errôneas.
A tese é simples:

Esquerda e direita, em um sistema legitimamente democrático e sem deformações, são opostos dialéticos interdependentes que podem e mesmo devem alternar-se em uma enriquecedora dinâmica interna.

Ou seja: faz parte da dinâmica de um estado democrático um possível revezamento entre governos mais voltados para a direita e outros mais voltados para a esquerda, pois ambos se complementam no intento de maximizar o bem comum e a justiça social.
Essa tese, naturalmente, demanda esclarecimentos. Primeiro é preciso definir com mínima precisão o que estamos entendendo por direita e esquerda, de modo a expor a razão mesma dessa dicotomia. Depois é necessário esclarecer por que considero ambas as posições legítimas. Depois preciso explicar por que uma alternância entre ambas, em um sistema sócio-político suficientemente desenvolvido costuma ser desejável. Finalmente, quero testar minhas considerações aplicando o critério de estado justo de John Rawls de maneira a mostrar que ele pode se aplicar positivamente a ambos os casos, uma vez dado o contexto adequado.

Vejamos primeiro como podemos definir o espectro político que vai da esquerda à direita de forma que espero não ser ideologicamente comprometida. Os termos surgiram no período da revolução francesa, a direita se referindo aos defensores da monarquia e a esquerda se referindo aos que a ela se opunham. Mais tarde a oposição passou a constituir um espectro que vai da estrema esquerda à esquerda moderada, ao centrismo moderado, à direita moderada e à estrema direita. Desse espectro quero considerar apenas a esquerda e a direita moderadas, uma vez que somente elas são compatíveis com um sistema democrático desenvolvido e capazes de um diálogo mútuo, diversamente de posições extremadas. Começo com uma breve caracterização contrastando as duas posições, começando com a direita democrática:
Tese A1. O ponto essencial é o de que a direita deve, por definição, representar as classes sociais ditas mais favorecidas ou dominantes. Claro que sob essa perspectiva a direita democrática por consequência defende a maximização do capitalismo privado. Ela defende a livre competição da parte da economia privada e a minimização do papel do estado. A diminuição das taxações decorrentes da minimização do papel do estado auxilia no crescimento econômico porque em um sistema livre de monopólios no qual o estado é pequeno e taxa minimamente as empresas se tornam muito mais capazes de competir umas com as outras. A livre competição, por sua vez, faz com que as empresas mais eficazes e criativas predominem, enquanto as menos competitivas vão à falência, o que no final serve como o principal instrumento no enriquecimento de uma nação.[2] Trata-se de uma espécie de inegável darwinismo econômico. O melhor exemplo disso pode ter sido o do desenvolvimento dos Estados Unidos na última metade do século XIX, notado pelo economista Newton Friedman. O governo taxava os cidadãos em menos de 5%, restringindo-se ao papel de manter a lei e a ordem, além da defesa. Praticamente tudo era privado. Como havia, por exemplo, competição entre as companhias ferroviárias, o preço das viagens era minimizado, facilitando a vida do cidadão. O resultado dessa política econômica foi um crescimento econômico exponencial que já no início do século XX fazia os Estados Unidos ultrapassarem a Europa em termos de riqueza.[3]
   Mas essa forma radical de capitalismo não acontece sem um preço, pois os perdedores da competição pelo capital caem na miséria, seja por incapacidade ou por simples má-sorte, passando a depender simplesmente da caridade dos mais afortunados. Há também a ansiedade social gerada pela competição. A própria mentalidade competitiva não parece em si mesma algo saudável. A palavra perdedor (loser) é tipicamente Americana. O pecado capital da direita, visível no que tem sido apelidado de “capitalismo selvagem”, é o da ganância.
   Vejamos agora, como contraste, características econômicas da esquerda:
Tese A2. Aqui o ponto essencial é o de que a esquerda deve representar as classes menos favorecidas, ou, para usar um vocabulário mais neutro, classes subordinadas na ordem social. Economicamente, a esquerda moderada tende a defender um socialismo democrático. Ela tende a defender uma maior intervenção estatal na economia, pois geralmente o estado é quem é capaz de redistribuir riquezas que tendem a se acumular nas mãos de alguns poucos, uma inevitável tendência da economia privada: dinheiro gera dinheiro. Um exemplo trivial evidencia isso: um fazendeiro que possui 20 alqueires pode investir suas economias comprando o dobro do que tem. Nesse caso conseguirá ter 40 alqueires. Já se um pequeno produtor que possui 2 alqueires investir suas economias comprando o dobro do que possui, conseguirá no final ter 4 alqueires. Na comparação o primeiro ganhará 20 alqueires a mais, enquanto o segundo apenas 2, ou seja, dez vezes mais do que o segundo. Assim, é evidente que o capital tende a se acumular nas mãos de poucos. Isso pode não ser mal do ponto de vista meramente econômico, mas os poucos possuidores de mais dinheiro facilmente possuem maior poder introduzindo distorções a seu favor, distorções no mercado capazes de produzir danos colaterais indesejáveis.
 Considerando o compromisso moral de auxiliar as classes menos favorecidas, a esquerda deve buscar diminuir essas desigualdades. É aí que entra o papel redistributivista do estado. Uma maneira de assegurar a redistribuição é agregar valor humano às pessoas, o que se faz pela educação, a começar pela educação básica. O próprio Marx acreditava que um engenheiro deve ganhar mais, uma vez que (segundo o seu raciocínio) foi investido trabalho na sua formação, o que o valoriza. Certamente, apenas isso não basta. O estado do bem estar social (o welfaire state) é uma conquista da civilização, protegendo os mais desfavorecidos. Que as pessoas possam de forma gratuita ter educação básica de qualidade, saúde, alimentação garantida em caso de desemprego, deveria passar à condição de direito humano. Mas não podemos nos esquecer que esses direitos só existem sob o pressuposto de uma estrutura econômica suficientemente robusta. Se a economia regredir à Idade Média esses direitos deixarão de existir. Eles são dependentes da realidade econômica.
   O óbvio problema causado pela introdução de medidas de auxílio social é que elas causam um aumento na taxação, diminuindo a competitividade da economia privada. A economia privada – o livre mercado – é o grande motor do desenvolvimento. Essa tese propagada por Adam Smith vale ainda hoje. O que enriquece uma nação é a livre competição entre os agentes econômicos; uma livre competição sem monopólios ou cartéis ou ajuda do estado e com base em leis igualmente aplicáveis a todos. Trata-se aqui do que Smith chamou de a “mão invisível” do mercado através da qual cada agente financeiro, movido pelo interesse pessoal busca vencer na competição do mercado, acabando por produzir mercadorias melhores e mais baratas, o que acaba por promover o enriquecimento de todos. Por isso, há riscos envolvidos na busca do estado do bem estar social, como erros estratégicos conduzidos pelo estado ou (no caso do Brasil) o crescimento excessivo do estado a ponto de esmagar a economia privada produzindo estagnação ao matar o “espírito animal” do empreendedorismo. O estado, como todos sabem, não tem competidores e é por essa razão pouco eficiente. A falência de sistemas totalitários de esquerda como a URSS e a China de Mao, para citar dois exemplos entre muitos, é uma prova disso. Esses sistemas de capitalismo de estado só funcionaram sob as mãos de ferro de ditadores e na medida em que eram capazes de dar algum espaço oculto à economia privada. O pecado capital da esquerda, claramente visível em sistemas comunistas, tem sido o da inveja.
Tese B1. A direita deve ou deveria estar comprometida com a defesa das classes dominantes sob uma justificação meritocrática. Segundo Rawls os membros dessas classes merecerão mais na medida em que forem capazes de produzir um bem comum maior (Digamos, Henry Ford ao produzir carros populares na década de 20).
B2. A esquerda deve estar comprometida com o redistributivismo com relação às classes menos favorecidas e com a minimização de desigualdades econômicas que podem facilmente se tornar injustas.
Tese A3. A direita costuma estar comprometida com a conservação dos valores tradicionais, com a resistência à velocidade da transformação ou mesmo com o retorno à ordem antes estabelecida. Mas qual a razão disso?
Tese B3. A esquerda deve estar mais comprometida com a mudança social sob o suposto de um contínuo progresso econômico. A razão da oposição entre A3 e B3 é simples: uma sociedade é um todo dinâmico geralmente em desenvolvimento, necessitando acomodações nas relações entre classes. O aumento da riqueza é o que permite uma melhoria na condição econômica das classes ditas subordinadas. Assim, é a esquerda que costuma demandar mudanças, até o limite onde essas mudanças possam se tornar excessivas. Um exemplo claro foi a revolução francesa antes da vinda de Napoleão, de sua degradação absolutista, seguida da reação que conservadora que veio depois de sua derrota.

Muitos pensaram, influenciados pelo marxismo, que a direita e a esquerda devessem ser posições políticas incompatíveis, a primeira delas defendendo a justiça social e a outra não. Para a esquerda influenciada pelo marxismo-leninismo, as classes menos favorecidas são socialmente exploradas e injustiçadas. Esse ponto valeu certamente para certos momentos da história, como os abusos da revolução industrial, mas não vale para todo e qualquer caso. Já a direita, influenciada por conservadores como Edmund Burke, defende que os mais abastados formam uma elite preservadora da tradição conquistada pela experiência de séculos, sendo no final das contas aqueles que se demonstraram os mais capazes e que por isso merecem preservar o que conquistaram, preservando assim o que foi bem sucedido em uma sociedade. Em termos individuais isso é claramente falacioso. Mas se considerarmos a maneira como o estado funciona, há uma certa lógica em se pensar assim. Por exemplo: os que pertencem à classe dominante tem mais acesso à educação, tem meios de conhecer os mecanismos concretos do poder e são capazes de passar sua experiência para os que pertencem ao mesmo grupamento social. Em princípio, ao menos – pressupondo legalidade e a ausência de corrupção – seriam mais capazes de gerir o estado de modo a produzir o bem comum.
   Quero defender aqui algo diverso disso, pois penso que ao menos quando consideramos formas moderadas de esquerda e direita representadas em um sistema verdadeiramente democrático de governo em que a corrupção é minimizada e as leis são reconhecidas e seguidas, ambas as posições são complementares e capazes de uma interação enriquecedora capaz de beneficiar a todos. John Searle devia ter algo assim em mente quando notou que o bipartidarismo americano é uma forma de sabedoria política.
   Quero considerar a questão da justiça social, mas antes disso pretendo considerar a questão das classes sociais. A existência de diferentes classes sociais é algo inevitável, absolutamente necessário a sociedades desenvolvidas. Ela praticamente não existe em tribos indígenas onde mais ou menos tudo é de todos, existindo em geral duas classes equiparadas. A dos homens, dedicados à caça e eventualmente a guerra, e a das mulheres, dedicadas aos afazeres domésticos e ao cuidado dos filhos. Mas desde os impérios da antiguidade a existência de classes sociais se tornou um fato social cuja necessidade é indiscutível. A existência de classes sociais não significa, inevitavelmente, injustiça social, como pensava Marx. A história não é a história das lutas de classe, mas dos compromissos entre as classes. Basta considerar estados social-democráticos muito desenvolvidos para que isso se torne claro. Uma pessoa rica na Finlândia tem encargos sociais muito elevados, estabelecidos pelo estado do bem estar social e a sua maior riqueza e maior status social deve ser justificada por maiores deveres e responsabilidades sociais, ou seja, pelo que ela é capaz de retornar para a sociedade. Isso nos faz passar à questão da justiça social.
   Quero notar que tanto um estado de esquerda quanto um estado de direita pode ser socialmente injusto. Não é somente a classe dominante que pode ser injusta com a classe subordinada, mas o contrário também é possível. Considerando o estado de direita, quero exemplificar meu ponto considerando o estado francês pouco antes da revolução francesa. Os custos do governo monárquico absolutista eram imensos, junto às suas dívidas, enquanto o povo passava fome. Aqui temos um exemplo da direita injusta e exploradora. Passemos agora ao caso oposto, o do comunismo soviético da época de Stalin. Nesse tempo uma pessoa que tivesse pertencido à nobreza corria risco de vida. Seu próprio modo de falar poderia denunciá-la, fazendo com que fosse acusada de traição ao regime por qualquer razão banal ou inventada, sendo então julgada e executada.[4] Esse é um exemplo de injustiça da esquerda. Ainda outro exemplo é o dos exageros que se seguiram à revolução francesa, como a indiscriminada condenação à morte de parte do clero.
   É difícil aplicar esse argumento nos casos de totalitarismos de extrema esquerda ou direita, pois eles deixam de representar realmente a população, uma vez que a oligarquia dominante passa a ter sobre ela controle físico e mental. Considere a anomalia trágica que foi o Kmehr Vermelho que liderou o Cambodja de 1975 a 1979. A ideia absurda que conduzia seus líderes era a de que o estado ideal seria o de camponeses auto-suficientes, que decidiu esvaziar uma cidade de mais de um milhão de habitantes em menos de um mês fez com que muitos, talvez quase um terço da população do país, mais de dois milhões de pessoas, foi morta em um período de pouco mais de três anos, de fome, de doenças ou condenados à morte por suspeita. Qualquer pessoa que fosse educada, não tivesse calos nas mãos, ou conhecesse outro idioma, era executada. A capital Pohn Penh, de um milhão e meio de habitantes foi esvaziada em poucas semanas e seus habitantes – mesmo os velhos e doentes – precisaram marchar a pé para os campos para trabalharem em grandes fazendas coletivas, quem não sobrevivesse não sendo digno do novo sistema. A mesma coisa ocorreu com a extrema esquerda da Coréia do Norte. Lá o povo camponês vive em extrema miséria. Comer grama não e coisa rara, dada a escassez de alimentos. Estima-se em 150 mil o número de prisioneiros em campos de concentração. Kim Jong-un, no entanto, vive na opulência junto aos que se deixaram corromper de modo a poderem pertencer ao governo. Não sei se é possível classificar essa anomalia como sendo um governo de esquerda ou a sua degradação final pela manipulação totalitária, mas esse como os outros – da URSS à Cuba – é extraordinariamente injusto para o povo a quem deveria beneficiar. O nazismo era uma ditadura com objetivos socialistas mas que ao mesmo tempo admitia o livre mercado capitalista, o que não nos permite considerarmos um regime de esquerda, mas também não de propriamente de direita no sentido em que estamos considerando, que tem como principal elemento caracterizador a classe representada pelos dirigentes do estado representam. Essas aberrações totalitária fogem, pois, à nossa tentativa de classificação.

Quero aplicar agora o teste de John Rawls para a justiça social.[5] A sua ideia é importante. Para Rawls existe um teste para se saber qual é o estado justo. Trata-se de se perguntar em que sistema político você preferiria viver se você caísse nele sob o véu da ignorância. O véu da ignorância é aquele no qual uma pessoa, embora sabendo como funcionam os estados, devendo escolher um deles, não sabe se nele cairá sendo rico ou pobre, homem ou mulher, saudável ou doente, heterossexual ou não, hábil ou inábil, etc. Sob tais condições a pessoa tenderá a escolher o estado justo, pois é nele que ela terá mais chances de ser tratada de forma justa.
   Rawls estava pensando em um sistema de bem estar social ao formular a sua teoria. Mas é interessante perceber que a melhor escolha pode se dar tanto com relação a um sistema de esquerda quanto em relação a um sistema de direita. Por exemplo: um sistema direitista justo como o da Singapura, que é governado por um único partido desde a sua libertação da Inglaterra (o Partido da Ação Popular) e possui características autoritárias, mas privilegia a meritocracia, é mesmo assim um lugar ao qual preferiríamos pertencer, pois está próximo de um sistema social justo. Um sistema com viés de esquerda, mas democrático, como o da Finlândia, também é algo que sob o véu da ignorância seria de nossa escolha. Não escolheríamos anomalias econômico-sociais como Rússia ou Brasil, e muito menos Cuba ou a Coréia do Norte. Assim, tanto um governo de direita quanto um governo de esquerda podem ser aproximar de um sistema socialmente justo.
  Finalmente, as circunstâncias de uma sociedade são mutáveis. Um sistema esquerdista moderado pode levar longe demais suas intenções, tornando-se injusto. Mais do que isso, pode aplicar suas políticas de forma inadequada. Esse me parece o caso da Suécia contemporânea. A admissão descontrolada de imigrantes acabou por formar mais de trinta “no go zones”, algo parecido com as favelas brasileiras, onde as pessoas, embora recebendo auxílio governamental, não tem qualquer disposição a se integrar culturalmente e mesmo economicamente ao país onde se encontram, passando à criminalidade. Com isso um estado social-democrático exemplar corre o risco de se perder. O exemplo contrário é o de uma direita como a mexicana atual, que privilegia uma minoria de governantes que certamente não conquistaram o poder por méritos próprios, dificultando a mobilidade social. Pelo que soube, o governo mexicano secretamente dirige o narcotráfico e privatizou empresas entre amigos. Não pode haver muito lugar para um livre mercado não distorcido e para a meritocracia em um governo dessa espécie.
  Vejamos finalmente as vantagens da alternância de poder entre esquerda e direita. Aqui outra vez os Estados Unidos servem como exemplo: em princípio o partido democrata exemplifica a esquerda moderada (igualitarismo libertarista), enquanto em princípio o partido republicano exemplifica a direita moderada (libertarianism). O governo republicano de George Bush cometeu um grave erro tático e humanitário na política externa, que foi a invasão do Iraque. Já na época especialistas advertiam que o preço dessa intervenção militar seria a guerra civil, pois o Iraque era uma colcha de retalhos cultural, herança do colonialismo, mantido unificado apenas pelas mãos de ferro de Sadam Hussein. O resultado da ação americana foi um conflito com um preço humano alto demais: fala-se em mais de duzentas mil vítimas civis.
   O contraponto disso foi o governo esquerdista liberal de Barack Obama. Ele conseguiu conter a crise econômica, mas foi muito além do razoável, do possível e mesmo do justo na implementação de políticas de auxílios sociais com secretas intenções populistas. Dessa maneira foram cometidos erros memoráveis, como a aceitação indiscriminada de imigrantes, o aumento na taxação de indústrias produzindo fuga de capital, a desastrosa Obamacare, a suspensão do embargo a uma ditadura sanguinária como a de Cuba... Um exemplo de apoio ingênuo a ditaduras foi o acordo para a utilização pacífica da energia nuclear, que liberou o estado totalitário que é o Iran para após dez anos produzir uma bomba nuclear, o que induzirá a uma corrida armamentista no oriente médio. Finalmente, como é frequente nas esquerdas, Obama gastou mais do que podia: a dívida Norte Americana saltou de 8 trilhões de dólares para mais de 20 trilhões, pondo em risco a estabilidade econômica do país. A continuação dessa política significaria um debacle econômico. Ou seja: a esquerda foi longe demais e em suas políticas cometeu tantos erros quanto a direita havia antes dela.
   O contraponto disso está sendo agora o governo conservador de Donald Trump cujo programa é de direita: organizar a imigração, diminuir os gastos do estado, aumentar o papel da iniciativa privada taxando menos e com isso criando mais oportunidades de emprego, além de combater a corrupção. Vemos aqui um bom exemplo do zig-zag político em um país desenvolvido, o que entendo como sendo responsável pelo equilíbrio dinâmico constitutivo da forma como um sistema democrático é capaz de auto organizar as relações entre classes sem recurso à violência do totalitarismo. Os programas de esquerda e de direita se corrigem um ao outro, como se poderia dizer, “dialeticamente”.  
   Tudo isso me faz concluir que tanto a esquerda – fazendo ouvir as classes subordinadas – como a direita – privilegiando as classes dominantes – tem o seu lugar, e que uma alternância de poder entre uma e outra pode ser algo saudável e plenamente compatível com uma sociedade legitimamente democrática.

[1] Isso é sempre um ideal. Mas uma democracia só possui autenticidade na medida em que se aproxima desse ideal.
[2] Adam Smith: An Inquiry into the Nature and Causes of the Wealth of Nations, Book
[3] Newton Freedman: Free to Choose: A Personal Statement
[4] Stalin chegou a fazer listas de pessoas que eram escolhidas pelos nomes para serem acusadas e executadas com o objetivo de manter a população aterrorizada.
[5] John Rawls: A Theory of Justice