A ortografia do português deve ser fonológica ou etimológica?

Todos os sistemas ortográficos já adotados em português sempre oscilaram entre duas posturas: a grafia etimológica, que procura preservar o modo como as palavras se escreviam em grego e latim clássicos, e a grafia fonológica (erradamente chamada de “fonética”, já que o sistema ortográfico deve representar os fonemas da língua, isto é, as unidades distintivas de significado, e não os infinitos e instáveis sons da fala). A primeira postura, defendida já em 1576 por Duarte Nunes de Leão na sua Orthographia da lingoa portuguesa, é evidentemente mais conservadora e exige grande poder de memorização dos falantes, bem como conhecimentos de grego e latim. Já a segunda postura é defendida por aqueles que entendem a língua como instrumento prático de comunicação, cuja escrita deve ser a mais racional e simples possível.

Como um idioma é um misto das duas coisas – instrumento de comunicação e patrimônio histórico e cultural de um povo –, tem-se procurado, na maioria das línguas europeias, um meio-termo entre as duas atitudes. Nesse sentido, substitui-se ph por f, mas mantém-se a distinção entre ss e ç, por exemplo.

70233b2ce7844fe5cb1a10451d1f3625

Até aí, nada de errado. O problema são as opções feitas pelos elaboradores de reformas ortográficas sobre o que deve ser mantido e o que deve ser simplificado.

Por exemplo, argumenta-se que “estender” deve ser grafado com s por ser palavra hereditária, isto é, que já fazia parte do acervo lexical dos primeiros falantes do português, ao passo que “extensão” deve ser com x porque é empréstimo erudito. Ou seja, na palavra vernácula deve prevalecer o critério fonológico, enquanto no termo culto deve ser aplicada a regra etimológica.

Esse princípio não faz muito sentido no exemplo dado, visto que “extensão” não é mais, rigorosamente, palavra culta, mas semiculta, pois sofreu metaplasmo (cujo nome técnico é metamorfismo) que igualou sua pronúncia à de “estender”. Exemplo análogo é a palavra italiana estensione, cuja grafia com s se deve exatamente a esse fenômeno, por sinal, abundante naquele idioma.

Mas a questão é: por que substituir o ph de “farmácia” por f, mas manter o x de “extensão”? Em alguns casos, as reformas ortográficas anteriores normalizaram com base na etimologia grafias oscilantes. Assim, se até 1943 “portuguez” e “embriaguez” se escreviam com z, convencionou-se que “português” deveria ser com s, já que nosso sufixo ‑ês provém do latino ‑ensis, enquanto o sufixo ‑ez de “embriaguez” vem do latim ‑ities. Da mesma forma, “quizesse” virou “quisesse” por causa do latim quaesivissem, que é com s, enquanto “fizesse” manteve o z por causa do latim fecissem, sem s.

Nesse caso, toda palavra que em latim tivesse x deveria tê-lo também em português. No entanto, se “texto” e “extensão” se escrevem com x, “misto” e “estender” são com s. E a justificativa não é o caráter culto ou hereditário dessas palavras, pois tanto “texto” quanto “misto” nos chegaram por via erudita. A regra aí é que x só se manteve em vocábulos cultos quando precedido de e (por isso “texto” e também “dextrose”), mas converteu-se em s quando em termos vernáculos (por isso, “destreza”) ou em termos cultos em que não é precedido de e (por isso, “misto”). Dá para entender uma regra dessas?

E se, por razões etimológicas, “portuguez” se tornou “português”, mas “embriaguez” se manteve intacta, então por que “hífen” (do grego hyphen) é com n, mas “devem”, “amém”, “delfim”, “jardim” e “marrom” (respectivamente, do latim debent, amen e delphinus, e do francês jardin e marron) são com m? Isso se aplica até à própria palavra “latim” (de latine)! Aliás, o português é a língua europeia com o maior número de palavras terminadas em m e o menor número em n, na contramão de todas as demais.

E por que quem nasce em Jerusalém é jerusalemita (ou hierosolimita), mas quem nasce em Belém (do hebraico Bethlehem) é Belenense? E por que “albumina” (de “álbum”) é com m, mas “mediúnico” (de “médium”) é com n?

Em resumo, mantivemos a grafia etimológica em alguns casos, mas não em outros. E o critério usado para determinar quais casos são esses permanece obscuro.

maxresdefault

Há ainda uma questão mais delicada do que essa: sendo o português uma língua cujas diferenças de pronúncia entre as diversas variedades (lusitana, brasileira, africana, asiática) vai além do plano puramente fonético, mas atinge o fonológico (isto é, não se trata da mera diferença de pronúncia de um fonema, mas do emprego de fonemas diferentes), a representação gráfica das palavras não deveria ser tão rigorosamente fiel à fonologia da língua quanto o é em espanhol ou italiano, por exemplo. Na verdade, deveríamos adotar um sistema a meio caminho entre os dessas duas línguas e o de idiomas como o francês e inglês, em que a distância entre o que se escreve e o que se diz é bem grande.

Um exemplo disso é a questão do timbre das vogais a, e e o e do consequente uso dos acentos agudo e circunflexo. Em Portugal, grafa-se (e pronuncia-se) parámetro, génio e económico, enquanto aqui no Brasil se diz e se escreve parâmetro, gênio e econômico. Ora, visto que não há oposição fonológica (isto é, distinção de significado) entre vogal aberta e vogal fechada diante de consoante nasal, o que equivale a dizer que as pronúncias nóme, nôme e nõme significam exatamente a mesma coisa, “nome”, seria mais lógico que se adotasse um único acento (o agudo, digamos) tanto lá quanto cá, qualquer que seja o timbre da vogal em cada uma das localidades do mundo onde se fala português. (Nesse ponto, sou até um pouco mais radical: acho que também a grafia do ditongo ão em certos casos deveria encontrar um meio-termo; afinal, o que no Brasil é islã, garçom, acordeom e elétron em Portugal é islão, garção, acordeão e elétrão.)

A conclusão que se tira de tudo isso é que nossa língua vive certos impasses, decorrentes em grande parte do distanciamento cultural e linguístico entre os diversos povos lusoparlantes, impasses esses que dificultam inclusive a difusão internacional do sexto idioma mais falado do mundo e que são dificílimos de contornar, especialmente porque uma reforma radical de nossa ortografia, como tudo o que é radical, é impensável – ou, pelo menos, deveria ter sido feita pelo menos um século atrás.

A “língua” do pensamento

Por mais distintas que as línguas sejam, praticamente tudo que pode ser dito em uma língua pode ser dito nas demais. Certas palavras não encontram equivalentes exatos em outros idiomas, as estruturas sintáticas são muito diferentes, mas o sentido geral das frases tende a permanecer o mesmo. Tanto que, salvo em traduções de poesia, em que a expressão é tão importante quanto o conteúdo, o que se traduz num texto é o seu sentido geral e não o significado termo a termo, a chamada tradução literal, que muitas vezes conduz a enunciados sem sentido.

Essa possibilidade quase irrestrita de tradução é possível porque o “sentido geral” a que estou me referindo é algo que transcende a língua. Trata-se de uma representação mental que fazemos da realidade e que prescinde de palavras. Mas tampouco se dá por imagens ou outros símbolos dotados de um significante material. Tanto que cegos de nascença, surdos-mudos e indivíduos privados da linguagem por alguma patologia são perfeitamente capazes de pensar e compreender a realidade.

Também comprovam a existência dessa representação metal puramente abstrata situações como quando não recordamos uma palavra mas mesmo assim sabemos o que queremos dizer, ou quando alguém diz algo e, tempos depois, lembramos o que foi dito mesmo tendo esquecido as palavras exatas. A ideia de que pensamos independentemente da língua que falamos e mesmo de outros sistemas simbólicos (sons, gestos, desenhos, esquemas) é bem antiga e tem inquietado muitos pensadores e cientistas ao longo do tempo.

Aristóteles já havia postulado que o pensamento se estrutura em torno de categorias gerais (substância, qualidade, ação) de tal modo que tudo o que possamos conceber se encaixe numa dessas categorias. O raciocínio seria então a combinação dessas categorias ou conceitos por meio de regras bem definidas. Curiosamente, tais categorias inspiraram o que chamamos hoje de classes gramaticais: substantivo, adjetivo, verbo, etc. (Não que essas classes sejam um espelho fiel do nosso pensamento; trata-se de mera aproximação feita pelos gramáticos.) Igualmente, as regras de combinação das categorias aristotélicas deram origem, de um lado, à lógica e, de outro, à sintaxe.

download
John Locke

No século 17, o filósofo inglês John Locke afirmou que tudo o que podemos conceber seria uma combinação de noções de base, ou qualidades (existência, extensão, forma, movimento, cor). Para Locke, haveria ideias primeiras (aquelas que não podem ser reduzidas a outras ainda mais simples) e conexões entre elas. Por exemplo, o ouro é a conjunção das qualidades material, inanimado, sólido, amarelo, brilhante, metálico, valioso, e assim por diante.

Afirmando que só é possível pensar por meio de algum tipo de linguagem, não importando a sua natureza, e inspirados na doutrina atomista dos gregos Leucipo e Demócrito, Bertrand Russell e Ludwig Wittgenstein propuseram que qualquer conceito linguístico pode ser decomposto em conceitos cada vez mais simples, até o ponto em que não possam mais ser decompostos.

Decorre dessa teoria (embora os próprios autores não tenham dito isso) que o pensamento seria uma combinação sintática de conceitos que, por sua vez, seriam “pacotes” estruturados de atributos mínimos. Fazendo uma analogia, fatos do mundo real são interações entre objetos formados de átomos ou de partículas ainda menores. Se o pensamento é a representação mental da realidade exterior, então a mente seria povoada por “objetos” (conceitos) compostos de partículas mínimas hierarquicamente organizadas, os quais interagem por meio de relações lógicas e abstratas. Isso explicaria por que substância, qualidade e ação são categorias universais e por que classes como substantivo, adjetivo e verbo existem em todas as línguas – ainda que, no plano da superfície discursiva, possam estar mascaradas em algumas delas.

Paralelamente, os estudos de Noam Chomsky sobre a aquisição da linguagem e a competência linguística demonstraram que, por mais pobres que sejam os estímulos vindos do meio, toda criança aprende a falar muito cedo e é capaz de formular corretamente frases que jamais ouviu antes.

Para Chomsky, há um inatismo na linguagem: não importa em qual língua a criança seja criada nem quanto (ou quão pouco) esforço os adultos circundantes dediquem a educá-la, ela sempre aprende a dominar o código com total competência. (Não estou falando aqui de dominar a norma culta, que, por sinal, a maioria das línguas não tem, mas de ser plenamente capaz de comunicar-se com seus semelhantes.)

2412
Noam Chomsky

Para explicar esse paradoxo, Chomsky postula que a aptidão linguística é inata e se dá por meio de módulos cerebrais. É como se o cérebro fosse o hardware no qual já viesse de fábrica um sistema operacional capaz de processar qualquer software linguístico (isto é, qualquer língua). A esse sistema pré-instalado Chomsky chamou de Gramática Universal (GU). Assim, se o cérebro é como um computador, a GU é a plataforma (como o Windows, por exemplo) na qual roda o “software” linguístico instalado (no nosso caso, algo como o programa “português.exe”). A fala é então o produto do processamento desse programa, como o papel que sai da impressora.

Mas, se não pensamos só com palavras, a GU, sendo uma plataforma de processamento linguístico, provavelmente ainda não é o sistema de base do pensamento: deve haver um sistema ainda mais básico, que permite “rodar” não só línguas mas todos os demais códigos simbólicos já inventados ou por inventar.

01fodor-obit-1-articleLarge
Jerry Fodor

Em 1975, o filósofo cognitivista Jerry Fodor publicou The Language of Thought (“A Linguagem do Pensamento”), em que propõe a existência de uma espécie de linguagem (LOT, na sigla em inglês) subjacente aos processos mentais. De modo geral, a teoria sustenta que o pensamento segue regras análogas às da língua. Só que sem palavras ou qualquer outro tipo de signos. Seria uma linguagem puramente abstrata, cuja representação simbólica para fins operacionais se assemelha a equações matemáticas. Essa “linguagem”, biológica (portanto, inata) e situada no nível hiperprofundo da mente, vem sendo chamada de “mentalês” por vários pesquisadores das ciências cognitivas e da neurociência.

Várias teorias paralelas à GU e à LOT têm sido desenvolvidas. Dentre as mais importantes estão a noêmica de Bernard Pottier, a semântica cognitiva de François Rastier e a psicologia cognitiva de Steven Pinker. Eu mesmo venho realizando pesquisas sobre o assunto, algumas já publicadas. É importante dizer que todas as teorias, apesar das diferenças, são tributárias de um mesmo princípio, já intuído pelos gregos na Antiguidade. Como diria Mário Quintana, não há nada que possamos pensar que algum grego já não tenha pensado.

Português brasileiro atual: uma língua indigente?

A analogia entre a língua e o vestuário já é uma metáfora desgastada, mas, ainda assim, é a mais perfeita que poderíamos usar, pois, de fato, o modo como falamos tem tudo a ver com a roupa que vestimos. E tem a ver com os costumes sociais de modo geral. Tanto que os tempos em que as pessoas falaram sem nenhum lastro na gramática normativa e em que a escolaridade foi mais precária – para não dizer inexistente – coincidiram com os períodos de maior decadência da civilização. Não à toa, a Alta Idade Média (séculos V a XI de nossa era), também conhecida como Idade das Trevas, foi o período histórico em que a língua latina sofreu a evolução mais rápida e mais radical, transformando-se nas atuais línguas românicas ou neolatinas. Durante os cinco séculos anteriores e os dez séculos posteriores a essa fase, a língua mostrou-se mais estável, evoluindo mais lentamente, justamente por obra da escola, da literatura e de outras instituições sociais que, voluntariamente ou não, diretamente ou não, exercem uma força contrária à evolução errática e acabam por preservar melhor a língua, pelo menos em seus registros mais elevados.

Se pegarmos jornais, revistas, filmes, gravações de rádio e livros escolares de 60 anos atrás ou mais, constataremos que a população em geral se expressava no dia a dia de modo mais consoante à norma culta do que se faz hoje em dia, mesmo reconhecendo que em nenhuma época a fala popular, mesmo das pessoas mais escolarizadas, coincidiu totalmente com a norma padrão encontrável nos textos formais. Mas o fato é que, hoje, até os documentos mais solenes, como teses acadêmicas, relatórios técnicos e textos jurídicos, são mais “informais” do que o eram em décadas passadas.

Similarmente, observamos que, nesses tempos idos, as pessoas não apenas se expressavam de modo mais formal do que hoje em dia – e olhe que, naquela época, pouquíssimas pessoas tinham escolaridade acima do atualmente chamado ensino básico – como também se trajavam mais formalmente. Nos anos 1940 e 50 era praticamente inadmissível que um rapaz fosse ao cinema sem paletó e gravata ou que uma moça fosse de calça comprida – bermudas, nem pensar!

Do mesmo modo como nossa sociedade se informalizou na vestimenta, e hoje é possível ir a praticamente qualquer lugar de regata e havaianas, também se informalizou na linguagem. Só que, devido ao sucateamento da nossa educação, a linguagem não apenas passou a andar mais “à vontade”, passou a vestir-se com indigência. A drástica redução do nosso vocabulário, com perda até de palavras gramaticais como “sobre”, “sob”, “cujo”, “tampouco” e os pronomes oblíquos átonos (quem ainda as emprega?), tragadas pelo buraco negro do desuso, aliada à nossa profunda crise moral (vide Mensalão, Petrolão, Lava-Jato) e estética (leia-se funk bandido, breganejo, Big Brother, etc.), parece indicar que estamos vivendo um momento de decadência civilizatória.

Pois revirando meus baús, encontrei outro dia livros, revistas e recortes de jornais do tempo em que meus pais eram jovens (e bota tempo nisso!). É admirável como qualquer publicação de banca de jornal daquela época empregava um vocabulário e tinha uma correção gramatical de fazer inveja às pessoas mais letradas de hoje em dia. O mais surpreendente é ver que livros de receitas, manuais de equipamentos e até cartilhas escolares eram escritos num português impecável – e o mais importante, as pessoas compreendiam! Isso sem falar da caligrafia das pessoas, uma verdadeira obra de arte.

Hoje, em que nem se escreve mais à mão, mas digita-se apenas com os polegares, quase ninguém sabe o que é caligrafia. No tempo de meus pais, os jovens vestiam seu melhor terno ou seu melhor vestido para ir ao baile no fim de semana, em que se tocavam fox trot, tango, valsa, samba-canção… Naquele tempo, os rapazes tiravam as moças delicadamente para dançar e, se “levavam tábua” (isto é, recebiam uma recusa da dama), desculpavam-se pela importunação. Naquele tempo, o namoro nascido no baile continuava no sofá da casa da moçoila, com a irmã mais nova “segurando vela”. Tudo muito diferente dos dias atuais, em que, nas baladas, rapazes de chinelos agarram garotas de shortinho pelo braço e as violentam se elas se recusarem a ficar pulando com eles ao som de um bate-estacas ou de um funk com letras obscenas, tudo regado a muita bebida e drogas. Hoje, os jovens transam no primeiro encontro, às vezes antes até de perguntar os nomes um do outro.

É claro que à juventude de hoje os costumes de antigamente parecerão “caretas”, assim como parecerá ultrapassado o linguajar da imprensa da época, mas, olhando para esse contraste com o mesmo distanciamento com que o historiador olha para a Idade das Trevas em relação à Grécia antiga ou à Europa da Belle Époque, compreendemos porque hoje até doutorandos em defesa de tese se sentem envergonhados de usar “nós” no lugar de “a gente”. Vive la décadence!