Lorenzo Peña
«Lógicas multivalentes»
publicado en
Enciclopedia IberoAmericana de Filosofía
ed. por C.A. Alchourrón, J.M. Méndez & R. Orayen
Madrid: Trotta-CSIC, 1995, pp. 323-49
ISBN 84-8164-045-X

Sumario

  1. Introducción histórica
  2. Las lógicas multivalentes como lógicas algebraicas
  3. Conclusiones
  4. Bibliogrfía


i introducción histórica

La idea central subyacente a la construcción de lógicas multivalentes es la de que hay un cierto campo fronterizo entre la verdad total y la completa falsedad. Esa idea no es ningún invento de algunos lógicos contemporáneos, sino que tiene hondas y remotas raíces en el pensamiento humano, y cabe alegar a su favor muchas consideraciones de muy diversa índole, desde las puramente filosóficas hasta las referidas a dificultades surgidas en no pocas disciplinas científicas por la pretensión de encasillar cada situación en uno de los dos polos, o «valores de verdad», de la lógica clásica.

Sin remontarnos a pensadores a quienes, como a Heráclito y a Platón, cabe fundadamente atribuir la propuesta de situaciones intermedias entre esos dos polos o extremos --en el caso de Platón con su tesis de grados de verdad o de realidad--, hay algún indicio a cuyo tenor no pareciera descaminado ver en Raimundo Lulio y en Nicolás de Cusa, entre otros, esbozos, todo lo rudimentarios que se quiera, de algo así como lógicas multivalentes. Sin embargo, fue uno de los fundadores de la lógica contemporánea, Charles S. Peirce, quien, junto con muchos otros logros, esbozó claramente, por vez primera, un sistema de lógica trivalente y además elaboró argumentos filosóficos convincentes a su favor. Sus apuntes al respecto recorren un largo lapso, mas en cualquier caso se sabe que en 1909 desarrolló esas ideas y alcanzó resultados rigurosos. Su plan de una matemática triádica o tricotómica concebía la inclusión del dominio limítrofe entre la afirmación y la negación «positivas» como un ensanchamiento más que como un debilitamiento de la lógica clásica (el principio de tercio excluso no había de venir omitido, pero sí reinterpretado de tal forma que no fuera enteramente verdadero). Peirce no publicó esos esbozos, desgraciadamente, y su obra no influyó en el ulterior [re]nacimiento de las lógicas multivalentes. (Sobre el aporte de Peirce, vid. Rescher, 1969, 4-5; ese mismo libro es la mejor fuente bibliográfica y de referencia para buena parte de las someras indicaciones de esta sección.)

El primer sistema estricto de lógica multivalente en ser dado a conocer en público fue el sistema trivalente del lógico polaco Jan Łukasiewicz en 1920 (ver Łukasiewicz, 1967). Durante los años 20 el propio Łukasiewicz y otros lógicos polacos desarrollaron ese sistema y fueron inventando otros con más de tres valores de verdad. Uno de esos lógicos, M. Wajsberg, brindó en 1932 una axiomatización completa para la lógica trivalente de Łukasiewicz: éste, por su parte, ya en 1930 expresó su preferencia filosófica por la lógica infinivalente. Siguieron en años sucesivos numerosos trabajos de estudio sintáctico y semántico de esos y otros sistemas multivalentes por diversos lógicos polacos, como J. Słupecki, Boleslaw Sobociński, St. Jaśkowski, etc.

Independientemente, el lógico norteamericano E. Post inventó en 1921 otro sistema diferente de lógica trivalente. Luego generalizó su tratamiento a m valores (para m finito). Desde el punto de vista lógico, suscita una dificultad el tratamiento de Post, y es que lo que él propuso fue una lógica, no de enunciados, sino de conjuntos de enunciados, por lo cual no resulta fácil entender sus sistemas como cálculos sentenciales. Pero dieron lugar a estudios algebraicos que luego se han revelado fructíferos. En ese orden del estudio algebraico han abundado cada vez más las contribuciones destacadas, entre las que cabe citar las de Gregor Moisil ya antes de la II guerra mundial (en Moisil, 1972), y luego Balbes & Dwinger (1974), Varlet (1975), Rasiowa (1974), el matemático portugués Antonio Monteiro y su colaborador y discípulo argentino --radicado durante un tiempo en el Brasil-- R. Cignoli (1980).

Otro aporte muy original fue el de S.C. Kleene, cuyo sistema lógico trivalente, de 1938, presentaba rasgos que lo separaban, interesantemente, de los de Łukasiewicz. Igualmente original era el sistema trivalente del lógico ruso Bochvar (propuesto en 1939), que postulaba 3 valores, V, F e I, y que atribuía I a cada fórmula no atómica que tuviera entre sus componentes una fórmula con valor I. Ese sistema no tiene tautologías, pero recientemente Urquhart (1986) ha probado su interés desde el punto de vista de la teoría de pruebas.

Urquhart aborda ese estudio y el de otros cálculos multivalentes --incluido uno que él propone y que ha sido desarrollado en Méndez (199?)-- utilizando un nuevo y más fecundo enfoque, que es el matricial, un cruce entre teoría de pruebas y lógica algebraica, y que consiste en dilucidar qué relaciones de consecuencia vienen determinadas por la asignación de ciertas álgebras como modelos para los cálculos lógicos que se trate de estudiar. Ese tratamiento matricial --dentro del cual se ubica el presente estudio también-- ha sido desarrollado, entre otros, por Malinowski (1979), Rautenberg (1979) y sobre todo el ya citado Urquhart.

No sin conexión con los desarrollos ya mencionados, tuvieron lugar otros que no pueden dejar de considerarse dentro del ámbito de las lógicas multivalentes: la axiomatización de la lógica intuicionista por Heyting en 1930 (desde el punto de vista algebraico ese cálculo se caracteriza por álgebras pseudocomplementadas, en el sentido indicado en el §2 de este trabajo) y más aún los cálculos propuestos por Kurt Gödel en 1932 (cuya contraparte algebraica son álgebras de Stone; ver §2, infra); sobre esos aportes, ver Rescher (1969). Otra exploración de las lógicas multivalentes se efectuó con vistas al tratamiento de anomalías en la física cuántica; fue iniciada en 1937 por P. Détouches-Février y desarrollada por Reichenbach en 1944 (ver Haack, 1974, 148 ss, 172-4).

Una auténtica explosión de estudios y de aplicaciones de lógicas multivalentes ha tenido lugar desde que en 1965 el trabajo pionero del ingeniero electrónico californiano Lofti Zadeh (ver Zadeh y ot. (1975)) inauguró el tratamiento de las lógicas de lo difuso, y de las teorías de conjuntos difusos. La idea central (que ya antes había sido propuesta, entre otros por Rescher) es tomar como función característica de un conjunto una que tome sus valores o imágenes en un conjunto de más de dos valores de verdad --preferiblemente en un dominio de infinitos valores. Aunque enfoques de ese género no han suscitado ni mucho menos unanimidad y siguen siendo ásperamente controvertidos, numerosísimos científicos de las más variadas disciplinas han abrazado con ardor ese tipo de tratamientos, habiéndoles encontrado, o creído encontrar, múltiples aplicaciones en sus respectivos campos. Más que nada descuella en esa porfía la informática, donde, curiosamente, el binarismo que parecía subyacente de manera definitiva se ha visto así contrarrestado o acaso completado por los tratamientos multivalentes. El hecho es que quienes más han contribuido a propagar el uso y cultivo de las viejas y nuevas lógicas multivalentes han sido los ingenieros electrónicos. Desde esa perspectiva han surgido un sinfín de nuevos tratamientos algebraicos, p.ej. (destaca aquí el grupo barcelonés de Enrique Trillas, L. Valverde y otros; ver, a título de ejemplo no más, Trillas & Valverde (1982)). No sin parentesco con esa línea de estudios están los nuevos tratamientos de inteligencia artificial y temas conexos utilizando lógicas paraconsistentes multivalentes, como las lógicas anotadas (en las que una fórmula «dice» de algún modo qué valor o grado de verdad posee: ver da Costa, Subrahmanian & Vago (1989); ello guarda afinidad con lo esbozado en el §2, hacia el final). Entre las lógicas multivalentes que son a la vez paraconsistentes cabe asimismo mencionar una lógica trivalente que ha sido separada e independientemente descubierta e investigada por varios autores; entre ellos el autor de estas páginas, por un lado, y por otro da Costa e Ítala d'Ottaviano, conjuntamente; ésta última la ha estudiado a fondo en su tesis d'Ottaviano (1982).

Otra área donde ha prosperado la lógica multivalente es la del tratamiento semántico de las lógicas relevantes, desarrolladas desde los años 70; ver Anderson & Belnap (1975). La relación entre lógicas multivalentes y lógicas de la relevancia ha sido investigada, p.ej., por Urquhart, en su trabajo ya citado, y por Sylvan & Urbas (1989). Alguna de las lógicas estudiadas en este último trabajo guardan estrechísimo parentesco con las que más centrarán nuestra atención en la segunda mitad o así del §2. (Sobre ese parentesco, volveré justamente al final del §2.)

Hasta que se empezó a trabajar en teorías de conjuntos difusos prevalecía en el estudio de lógicas multivalentes la preferencia por lógicas con un número finito de valores. Pero para su aplicación a la teoría de conjuntos, se han visto las ventajas de la infinivalencia. Desgraciadamente, sin embargo, resultaba muy difícil dar un tratamiento axiomático adecuado a cálculos cuantificacionales infinivalentes (la extensibilidad cuantificacional de las lógicas multivalentes en general se venía investigando desde hacía tiempo, sobresaliendo el aporte de Rosser & Turquette (1952), c. V, 62 ss; mas la prueba de la inaxiomatizabilidad del sistema ŁQ de lógica cuantificacional basado en el cálculo infinivalente de Łukasiewicz fue proporcionada por B. Scarpellini en 1962; ver la referencia en Urquhart, 1986, 99). Ello ha alejado a una parte de los estudiosos y cultivadores de esas teorías de conjuntos del tratamiento axiomático. Recientemente se ha puesto en pie una nueva familia de lógicas infinivalentes (y paraconsistentes) en la cual se obtiene la extendibilidad axiomática al cálculo cuantificacional, y además se prueba que uno al menos de los sistemas de esa familia, A, es, para cada lógica L caracterizada por m valores de verdad, una extensión cuasi-conservativa de la misma, en el sentido de que hay en el sistema algún functor de afirmación generalizada, ☼, tal que, para cualquier fórmula p, ☼p es un teorema de A sys (si, y sólo si) p es un teorema de L (ver Peña, 1991, 139 ss); como casos particulares se tiene una extensión del mismo resultado para la lógica G (el sistema infinivalente de Gödel) y otro incluso más fuerte, y es que A es una extensión conservativa de la lógica bivalente clásica (naturalmente, sólo para cierta traducción de la negación clásica).

Si la investigación de lógicas multivalentes ha suscitado entusiasmo, no han faltado sus detractores, quienes han tendido a ver en esos cálculos invenciones artificiales y sin base «intuitiva», o incluso exentos de interés matemático. Como qué tautologías se den en un sistema multivalente y también qué relación de consecuencia haya en él dependen de qué valores sean tomados como designados (o verdaderos), unos cuantos autores han concluido que se trata de algo meramente arbitrario, y por ende que todo el tratamiento ofrecido por tales lógicas es un juego. Cae naturalmente fuera del ámbito del presente trabajo discutir las motivaciones filosóficas, pero el hecho es que éstas existen, y a favor de ellas abonan muchos argumentos propuestos por diversos autores. Sobre ese y otros puntos que han de quedar fuera del presente estudio, ver Peña (1994).

Hoy se suele estar de acuerdo --más allá de tantísimas discrepancias en tantas cosas-- al menos en esto: que el tratamiento de lógicas llamadas multivalentes forma parte del estudio algebraico de la lógica. En verdad hay una prueba trivial (generalización de un resultado célebre de Lindenbaum) a cuyo tenor cualquier sistema tiene una matriz característica multivalente: basta con tomar como álgebra una cuyo portador sea el conjunto de las fórmulas, y cuyos elementos designados sean los teoremas. En ese sentido no hay lógica que no sea multivalente. Ese resultado no banaliza el estudio de las lógicas multivalentes porque, precisamente, el tratamiento algebraico permite ver qué reducibilidades ulteriores se dan (por vía de congruencias, noción que será explicada en el §2).


ii las lógicas multivalentes como lógicas algebraicas

Las convenciones notacionales usadas aquí son, esencialmente, las de Church: un punto indica un paréntesis de abrir cuyo correspondiente paréntesis de cerrar estaría tan a la derecha como quepa; las restantes ambigüedades se disipan asociando hacia la izquierda

Por álgebra universal cabe entender un conjunto dotado de ciertas operaciones, siendo una operación una función n-aria, para n≥0 (n puede ser infinito, pero aquí excluiremos tal posibilidad). E.d., una operación n-aria, ¶, definida sobre un conjunto A, es algo tal que, para cualesquiera n miembros de A, a¹, a², ..., an, ¶(a¹...an) ∈ A: lo cual significa que para a¹,...,an ∈ A hay un solo miembro de A que es ¶(a¹,...,an). Cuando se trate de una operación binaria, en vez de ¶(a¹,a²) escribimos a¹¶a². Generalmente un álgebra se representa como una secuencia <A, Γ>, donde Γ es una secuencia de operaciones, o bien, alternativamente, como una secuencia <A, ¶¹,...,¶j>, donde ¶¹,...,¶j son operaciones ordenadas por su ariedad, o sea por el número de sus argumentos. El conjunto A será el portador de dicha álgebra. A veces, por comodidad, se llama al álgebra igual que a su portador.

Una matriz es un un trío <A, D, Δ>, donde <A, Δ> es un álgebra --siendo A, Δ, según se acaba de indicar--, al paso que D es un subconjunto de A, subconjunto que viene llamado el conjunto de elementos designados.

El procedimiento general para establecer la correspondencia entre un cálculo lógico y una matriz es éste. Dos álgebras se llaman similares [entre sí], o de de similaridad igual, si son, respectivamente, <A, Γ> y <B, Δ>, y Γ = <γ1, γ2, ..., γn> mientras que Δ = <δ1, δ2, ..., δn> y, para cada índice, i (1≤i≤n) γi es una operación de la misma ariedad que δi, o sea son operaciones con el mismo número de argumentos. Un morfismo de un álgebra <A, Δ> en otra a ella similar <B, Γ> es una función ƒ tal que, para cada índice i, si δi es una operación m-aria, entonces para cualesquiera m elementos de A, ai, ..., am, ƒ(δi(a1,...,am)) = δi(ƒa1,...,ƒam). Si el morfismo m es una inyección (mx=mz sólo si x=z), será llamado un monomorfismo; si es una sobreyección (para cada b∈B hay un a∈A tal que ma=b), será un epimorfismo; si es ambas cosas a la vez, un isomorfismo. Un morfismo de un álgebra en sí misma es un endomorfismo; un endomorfismo isomórfico es un automorfismo.

Un cálculo lógico [sentencial] viene definido como sigue. Un lenguaje sentencial es un álgebra de índole particular, a saber: una en la que el portador es un conjunto de fórmulas y las operaciones son simplemente las operaciones n-arias (para n≥0) que envían a n fórmulas, tomadas como argumentos, sobre la fórmula resultante de unir a las dadas mediante un functor n-ádico determinado; pueden ser, p.ej., las de negación, disyunción y conyunción. Si <A, Γ> es un lenguaje sentencial, <A, Γ, ℜ> es un cálculo [sentencial] sys ℜ es una operación de consecuencia en A, donde una operación de consecuencia viene definida como una función φ que toma como argumentos subconjuntos de A y que cumple estas condiciones: 1ª) φφX = φX þ X; 2ª) φZ þ φX sólo si Z þ X; 3ª) ningún endomorfismo m es tal que mφX þ φmX. Llamamos regla de inferencia de un cálculo cuyo portador (conjunto de fórmulas) sea A a una relación R entre dos subconjuntos de A que cumpla estas tres condiciones: 1ª) R se mantiene para cualquier endomorfismo --o sea: si X guarda R con Z, y m es un endomorfismo, siendo m(X) = {q: ∃r∈X(mr=q)}, entonces m(X) guarda R con m(Z); 2ª) si ℜ es la operación de consecuencia definitoria del cálculo C, entonces X guarda R con {z} sólo si z ∈ ℜX; 3ª) un conjunto X guarda con otro Z la relación R sólo si para cierto z Z={z}; a efectos prácticos podemos representar el que X guarde la relación R con {q} como el que se dé esa relación R entre X y la fórmula q. Que q ∈ ℜX lo escribimos: X├q. Si X = {, ..., pn}, podemos expresar lo mismo así: p¹,...,pn ├ q. Decimos que una operación σ es la extensión ancestral de una familia de relaciones {Ri}i∈I sys σX es el menor superconjunto de X cerrado con respecto a cada relación Ri. Una operación de consecuencia ℜ será llamada regular sys hay un número finito de reglas de inferencia, R1,...,Rm, tales que ℜ es la extensión ancestral de {R1,...,Rm}. En tal caso diremos que ℜ es la operación de consecuencia engendrada por R1,...Rn. Sólo nos interesaremos aquí por operaciones de consecuencia regulares, lo cual nos permitirá, de hecho, pensar, más que en la operación en sí, en las reglas de inferencia que la engendran.

Aquellos elementos del portador de un cálculo con los cuales el subconjunto vacío de fórmulas, Ø, guarde alguna regla de inferencia de ese cálculo son sus axiomas. Los teoremas de ese cálculo son los miembros del menor superconjunto del conjunto de sus axiomas cerrado para la operación de consecuencia ℜ. A un cálculo sentencial lo llamaremos también una lógica. (Nótese que está lejos de ser baladí la estipulación de este párrafo --aparentemente sólo definicional--: de hecho el concebir así a los axiomas equivale a adoptar automáticamente la concepción clásica de la operación de consecuencia, a tenor de la cual, para cualquier conjunto de fórmulas X y cualquier teorema del cálculo sentencial considerado, p, se tendrá que p∈ℜX --donde ℜ es la operación de consecuencia definitoria de ese cálculo sentencial).

Llamaremos valuaciones a los morfismos de un cálculo en una matriz, y sustituciones a los endomorfismos de un cálculo. Para que haya una valuación de un cálculo dado, C, en una matriz dada, M, a cada functor n-ádico, ♪, de C le habrá de corresponder una operación n-aria, ♬, en M tal que, para cualquier valuación v del lenguaje en el que se formule C en M y cualesquiera fórmulas , ..., pn del lenguaje de dicho cálculo, se tendrá: v(♪(p¹,...,pn)) = ♬(v(),...,v(pn)). Por comodidad --y no prestándose ello a ningún equívoco-- cabe escribir igual el signo `♪' de C y el que nombra a la operación ♬ de M.

Diremos que una matriz A = <A,D,{δ1,...,δm}> es un modelo de un cálculo C = <C,{γ1,...,γm},ℜ> sys cada valuación de C en A, v, es tal que --definiendo v(X) como {z: ∃u(vu = z)}, para un X ⊂ C-- pT [siendo T el conjunto de teoremas de C] sólo si v(p) ∈ D. Llamaremos a un modelo recio si cumple esta condición adicional: cada valuación v y cada fórmula p son tales que v(p) ∈ D si v(X) ⊂ D y p ∈ ℜX. Para que una matriz sea un modelo de un cálculo basta con que las valuaciones les den a los teoremas, como imágenes suyas, elementos designados; para que sea recio es, además, menester que la operación de consecuencia del cálculo sea volcada por cada valuación en una relación, dentro de la matriz dada como modelo, que preserve el estatuto de designación. En adelante tan sólo nos interesarán los modelos recios, por lo cual omitiremos el adjetivo. (Un modelo puede no ser característico --esta noción se va a definir unas pocas líneas más abajo--; y lo propio le sucede a una clase entera de modelos. Mas cuando se define un cálculo con relación a un modelo o clase de modelos, éste o éstos son entonces, por definición, característicos.)

En general un cálculo C del lenguaje þ puede venir [semánticamente] caracterizado (definido) con relación a una clase M de matrices así: la operación [regular] de consecuencia ℜ vendrá definida así: ∀A∈M, dado un conjunto de fórmulas cualquiera, X⊂þ, ℜX = {x∈þ: ∀h∈Val(þ,A): hx∈D o h(X)þD}, donde Val(þ,A) es el conjunto de valuaciones de þ en A. (Como caso particular, los teoremas de C serán las fórmulas p de su lenguaje, þ, que sean válidas respecto a M, o sea tales que ∀A∈M ∀vVal(þ,A) ocurra que v(p)∈D, siendo D el conjunto de elementos designados de A.) Para una ℜ definida semánticamente con respecto a la clase M de matrices, el que p∈ℜX viene expresado así: X|=Mp.

Cuando se cumplen las condiciones recién indicadas, decimos que esa clase M de matrices es característica del cálculo en cuestión. Pero también es característica de un cálculo una clase de matrices, aunque el cálculo no venga definido así, siempre que pueda serlo (o sea siempre que otra definición tenga la misma extensión). Cuando una cierta clase unitaria de matrices sea característica de un cálculo sentencial dado, se dirá que la única matriz perteneciente a esa clase unitaria es característica de dicho cálculo. Si el portador de la matriz tiene exactamente n miembros se llama n-valente a dicho cálculo. (Dicho de otro modo: la matriz M es característica del cálculo C sys se cumple en general esta condición: X|={M}p sys p∈ℜX, donde ℜ sea la operación de consecuencia definitoria de C.)

De hecho no cualquier álgebra ofrece interés como modelo para los propósitos recién indicados. Prácticamente se consideran pertinentes aquellas álgebras que son retículos, o sea álgebras <A, +, ●> donde para cualesquiera x, z, u ∈ A se tienen estas ecuaciones:

idempotencia: x+x = x = x●x;conmutatividad: x+z = z+x; x●z =z●x

asociatividad: x+z+u = x+(z+u); x●z●u = x●(z●u);

absorción: x+z●x = x = x●z+x

Es más, para nuestros propósitos, sólo se aceptan como modelos retículos distributivos, o sea que cumplan la condición de distributividad, a saber: x+(u●z) = (x+u)●(x+z) así como x●(u+z) = (x●u)+(x+z). La operación + es llamada la junción y corresponderá a la disyunción, mientras que ● viene llamado el cruce y corresponde a la conyunción. En un retículo el que x=x●z se expresa así también: x≤z.

Si la correspondencia entre esos signos lógicos y esas operaciones algebraicas suele sustraerse a la controversia, no sucede lo propio con respecto a la negación. Es bastante común, sin embargo, el postular que ésta coresponda a una operación algebraica unaria, ~, tal que se cumplan tres ecuaciones adicionales: De Morgan (o sea ~(x●z) = ~x+~z, así como ~(x+z) = ~x●~z) e involutividad: ~(~x) = x. No obstante, para algunos cálculos, como veremos, se atenúan estas dos condiciones o se reemplazan por otras menos estrictas.

Un álgebra con las operaciones ●, + y ~ que cumplan esas condiciones será llamada un álgebra de De Morgan. Supongamos ahora un álgebra de De Morgan que reúna esta condición adicional: hay en ella dos elementos, 1 y 0, tales que, en general, x●1 = x mientras que x●0 = 0, ~0 = 1; un álgebra tal será un álgebra cuasibooleana. De entre las álgebras cuasibooleanas se llaman álgebras de Kleene a las que cumplen en general esta condición: z+~z ≥ x●~x.

Un retículo distributivo con 0 y 1 se llama pseudocomplementado si en él se da una operación unaria, ¬, tal que para cada x se tiene que ¬x es el mayor elemento disjunto de x (o sea uno tal que para cualquier z z●x = 0 sys ¬x≥z). Un retículo pseudocomplementado es un álgebra de Stone sys cumple esta condición: para todo x, ¬x+¬¬x = 1. (En un retículo pseudocomplementado --omítense aquí las pruebas-- valen estas ecuaciones: x●¬x = ¬x●¬¬x; ¬¬x≥x; x●z>0 sys ¬¬x●z>0; ¬x>¬z sólo si z>x; ¬(x+z) = ¬x●¬z; ¬¬x●¬¬z = ¬¬(x●z); ¬¬(¬¬x+¬¬z) = ¬¬(x+z); ¬(¬x+x) = 0.)

Un álgebra de Kleene es un álgebra booleana si cumple esta condición: x●~x = 0 y x+~x = 1. También cabe definir a las álgebras booleanas como retículos pseudocomplementados en los que para cada x: x+¬x = 1; y como álgebras de Stone en las cuales x=¬¬x

Para nuestro propósito requeriremos que D --el conjunto de elementos designados-- sea un filtro propio, o sea un subconjunto propio del portador del álgebra tal que, en general, se cumplan estas dos condiciones: 1ª) si x●z = x, siendo x ∈ D, entonces z ∈ D; y 2ª) si x, z ∈ D, x●z ∈ D.

Sea B la clase de todas las matrices booleanas. Demuéstrase este resultado: sea C un cálculo semánticamente definido como uno que tenga por axiomas a las fórmulas de cierto lenguaje (con conyunción, disyunción y negación) válidas en cualquier matriz de B y cuya operación de consecuencia semánticamente definida (del modo más arriba indicado) sea |=M; ese cálculo es idéntico a otro definido igual pero en el cual, en vez de M, se tome el álgebra con sólo dos elementos, 0 y 1, siendo D={1}. El cálculo caracterizado por las álgebras booleanas es LC (la lógica clásica). Por ello precisamente se da en llamar a LC la lógica bivalente.

Una lógica multivalente será un cálculo sentencial semánticamente definido cuyos modelos sean ciertas matrices no booleanas (aunque esto ha de entenderse, en general, como que no todas las matrices de la clase en cuestión serán booleanas). Un ejemplo será K, a saber: el cálculo sentencial en el que son teoremáticas sólo todas las fórmulas válidas respecto a cualquier matriz de Kleene, donde una matriz de Kleene viene definida como un álgebra de Kleene con un conjunto cualquiera de elementos designados que sea un filtro propio y cuyas reglas de inferencia sean las preservadoras de la designación en esa clase de álgebras.

Pasemos ahora de K a otras lógicas construibles como extensiones de K. En primer lugar, puede extenderse el cúmulo de reglas de inferencia del siguiente modo. Formamos el sistema K ω, a saber la lógica semánticamente definida como teniendo sus modelos en una clase unitaria de matrices, {K}, donde K = <R, {1}, Δ> siendo R = [0,1] (o sea el intervalo de los números reales r tales que 1≥r≥0), y siendo Δ = {+,●,~}, donde x●z = min(x,z), mientras que x+z = max (x,z) (el signo `+' no hace aquí las veces de la adición); la operación unaria ~ viene definida así: ~1=0; ~0=1; para 1>x>0 el logaritmo en base 2 de ~x es igual al logaritmo en base x de 2. Como signos del cálculo lógico usemos `N' en vez de `~', `∨' en vez de `+', y `∧' en vez de `●'. Son teoremas de K ω los mismos que de K, pero en K no están ciertas reglas de inferencia que sí están en cambio en K ω, como ésta (la regla de Cornubia, [mal]llamada de Escoto): p, Np |= q. Tomemos ahora, en vez de K, A, definida como <R, D, Δ>, con Δ igual y D = ]0,1], o sea el conjunto de reales r tales que 1≥r>0. Al cálculo sentencial semánticamente definido como tomando sus modelos en {A} lo llamamos lógica Aω. Hay una serie de esquemas que son teoremáticos en Aω sin serlo en K, como éstos: N(p∧Np), p∨Np --respectivamente no contradicción y tercio excluso. Por otra parte, la regla de Cornubia no está en el nuevo sistema; éste es, pues, una lógica paraconsistente.

¿Qué pasa si, en vez de [0,1], tomamos {0,½,1}, siendo D = {½,1}? Es obvio, por la definición dada, que N½=½. Llamemos A3 a la lógica semánticamente caracterizada con respecto a la clase unitaria cuyo único miembro es esta matriz de tres elementos. Salta a la vista que A3 = Aω. Es más, cabe demostrar que se trata de la lógica semánticamente definible con respecto a la clase de matrices que son álgebras de Kleene en las cuales para todo x x+~x ∈ D.

Un problema que surge con las lógicas multivalentes hasta aquí consideradas es que no tenemos en ellas ningún functor que exprese una relación condicional o de implicación. Ese problema no surge en LC, porque en ella podemos definir p⊃q como ~p∨q, y similarmente con las operaciones booleanas correspondientes, obteniéndose los dos rasgos apetecibles para un condicional, a saber: (rº1º) el functor `⊃' así definido preserva la designación, e.d. posee la condición del modus ponens (para cualquier valuación v, si v(p⊃q) y v(p) son designados, también lo es v(q); y (rº2º) tiene la propiedad de la deducción: si p¹, ..., pn, r |= q, entonces p¹,...,pn |= r⊃q.

Hay dos procedimientos comunes para introducir functores condicionales en lógicas multivalentes. Uno consiste en introducirlos como primitivos. El otro estriba en introducir primero una negación fuerte, y luego definir, por medio de ella, el condicional, igual que se hace en LC. Voy a centrarme aquí en este segundo procedimiento.

Si <A,Δ> es un álgebra de Stone, <A, D, Δ> será una matriz de Cragg, donde D es el conjunto de miembros densos de A, o sea de aquellos elementos x tales que ¬x=0. Una operación que nos sirve entonces para definir el condicional es la que define x⊃z como ¬x∨z.

Llamemos lógica pétrea al cálculo sentencial cuyo vocabulario abarca signos sentenciales y las constantes de conyunción (`∧'), disyunción (`∨'), y negación fuerte (`¬), cuyos teoremas son las fórmulas válidas en cualquier matriz de Cragg y cuya única regla de inferencia es el modus ponens (p∨¬q, q ├ p). Definiendo en una lógica pétrea el condicional del modo clásico (p⊃q abrevia a ¬p∨q), ese functor posee los dos deseados rasgos ya enumerados, (rº1º) y (rº2º). Es más: la lógica pétrea es idéntica a LC, a pesar de la diversa definición semántica de ambas. Un ejemplo de matriz de Cragg es þ, a saber: la que tiene como portador el intervalo [0,1], siendo ● y + como vinieron definidos para K ω, y siendo ¬x = 0 si x>0, ¬0=1. Aunque esta álgebra no es booleana, es también un modelo de LC: una fórmula es un teorema del cálculo sentencial clásico sys es válida con respecto a la matriz þ. Como se ve, faltan a þ para ser booleana dos condiciones: en general no se tiene ¬¬x = x; ni x+¬x = 1.

El vínculo entre þ y un álgebra de Boole puede hacerse más claro como sigue. Llamamos congruencia en un álgebra a una relación [diádica] Θ que tenga, para toda operación n-aria, ¶, la propiedad de sustitución, a saber: si x¹Θz¹, ..., xnΘzn, entonces ¶(x¹,...xn) Θ ¶(z¹,...,zn). Una congruencia es una relación de equivalencia. Si Θ es una congruencia de un álgebra A cuyo portador es J, podemos obtener el álgebra cociente de A por Θ, a saber una cuyo portador es el conjunto de las clases de equivalencia [x]Θ (o [x] a secas, si el contexto desambigúa), siendo x un elemento cualquiera de J y teniéndose que en general z ∈ [x] sys xΘz. En el álgebra þ hay una congruencia Θ tal que xΘz si x>0<z o x=0=z. El álgebra cociente de þ por Θ es un álgebra booleana: es el álgebra cuyo portador es {0,1}. La idea principal en el paso de þ a esa álgebra booleana es que en ésta se toman como si fueran indiscriminables o indiscernibles todos los infinitos elementos densos (designados).

Sea M = <M,D,Δ> una matriz de Cragg, y para los mismos M y D sea <M,D,Φ> una matriz de Kleene. Sea Ξ = Δ∪Φ. Entonces <M,D,Ξ> será una ξ-matriz. Las ξ-matrices son los modelos que caracterizan a la lógica Aξ. O sea, Aξ es aquel cálculo sentencial cuyos teoremas son las fórmulas, de un lenguaje sentencial dado, que vienen enviadas por cualquier valuación sobre elementos designados de una ξ-matriz, y cuyas reglas de inferencia son las que preservan la designación. (Por ser M una matriz de Cragg, D será el conjunto de todos los elementos densos.) Nótese que en una ξ-matriz ya no puede establecerse una congruencia como la considerada en el párrafo anterior. Sea Ξ la ξ-matriz cuyo portador es [0,1]. Aunque en esta ξ-matriz 1Θ½, no sucede empero que N1 Θ N½, puesto que N1=0, N½=½, y sin embargo no ocurre que 0Θ½ (hay infinidad de elementos z congruentes con 1 y tales que Nz no es congruente con N1; el caso del elemento ½ se aduce sólo por ser un caso «extremo»). La lógica Aξ es una lógica paraconsistente (con respecto a la negación simple `N') y también multivalente; no es paraconsistente con respecto a la negación fuerte, ¬. En la lógica Aξ se tiene la regla de inferencia: p, ¬p |= q; pero no: p, Np |= q. Sin embargo, los principios de no contradicción y de tercio excluso son válidos para ambas negaciones: son teoremáticos todos los esquemas: p∨Np, p∨¬p, N(p∧Np), ¬(p∧¬p). Definiendo p≡q como p⊃q∧.q⊃p, se tendrá p≡¬¬p, versión atenuada de la involutividad. (También se tiene, claro p≡NNp.) Asimismo valen en la lógica Aξ los cuatro principios condicionales de abducción, a saber: p⊃Np⊃Np, p⊃¬p⊃¬p, Np⊃p⊃p, ¬p⊃p⊃p. Aun siendo paraconsistente, Aξ es una lógica de talante muy conservador: su negación simple posee la mayor parte de los rasgos de la negación clásica, al paso que, gracias a su negación fuerte, Aξ es una extensión conservativa recia de LC, en el sentido técnico usual (una fórmula de Aξ que sólo contenga vocabulario clásico es teoremática en Aξ sys también lo es en LC; y cada regla de inferencia clásica vale también en Aξ).

Demostrablemente la lógica Aξ se caracteriza por la clase unitaria que sólo abarca a una matriz con tres elementos, dos de ellos designados.

Ésa es una razón para no estar satisfechos con Aξ. El fondo del problema estriba en que no podemos con el limitadísimo vocabulario de Aξ expresar ninguna relación más estrecha entre dos enunciados consistente en que uno de ellos sea más verdadero que el otro. Vamos ahora a partir de una ξ-matriz y vamos a añadir una operación binaria, I, como sigue. En primer lugar sólo tomamos ξ-matrices que tengan un elemento ½ tal que ½=N½. La operación I será tal que: xIz = ½ sys x=z; en caso contrario, xIz = 0. A una matriz así la llamaremos una ξI-matriz. (Podríamos generalizar ese tratamiento, exigiendo, en vez de igualdad, una congruencia plenamente invariante, o sea una que venga preservada por todos los endomorfismos.) El rasgo importante que añaden las ξI-álgebras y matrices es poder expresar la mismidad de grado de verdad. La lógica semánticamente definida como aquella cuyos modelos son ξI-matrices será la lógica AξI. A diferencia de la lógica Aξ, AξI no es ni trivalente ni siquiera finivalente. Con respecto a una ξI-álgebra de n valores (n finito) se tendrá un esquema teoremático que no lo sea en AξI; p.ej. en una lógica definida respecto a la clase unitaria de ξI-matrices cuyo portador es {0,½,1} se tendrá (definiendo p→q como p∧qIp): p→(q∧Nq)∨¬q∨¬Nq∨¬Np; y en general, para n valores se tendrá que, dadas n letras sentenciales, , ..., pn, y definiendo p\q como p→q∧¬(q→p), será teoremática la fórmula: p¹\p²∧(p²\p³)∧...(pn-¹\pn)⊃.¬Npn∧¬p¹. (Dicho en plata: para cualquier cadena de n enunciados cada uno de los cuales sea más verdadero que los que lo precedan, el primero será totalmente falso y el último totalmente verdadero; ello excluye la utilización de lógicas finivalentes para el tratamiento lógico de los comparativos, según vino propuesto en Peña, 1987.) Igualmente, cada lógica finivalente contendrá como esquema teoremático una de las llamadas `fórmulas de Dugundji': para n variables sentenciales, p¹, p², ..., pn, la fórmula de Dugundji correspondiente es: p¹Ip²∨.p¹Ip³∨....∨.p¹Ipn∨....∨.pn-¹Ipn. La fórmula de Dugundji en n variables sentenciales dice que hay un máximo de n-1 valores veritativos o grados de verdad. (La LC viene caracterizada por la fórmula de Dugundji en 3 variables: pIq∨.pIr∨.qIr.) Ningún esquema así es teoremático en la lógica infinivalente AξI.

La razón por la cual hemos tomado uniformemente xIz = ½ cuando x=z es la de poder así tener como teoremáticos todos los esquemas siguientes: pIq→.p∧rI.q∧r; p→q∧p→q; pIq→.rIqI.rIp; pIq→.p∨rI.q∨r; pIp→.qIq; p→(p→q)→.p→q; p→Np→Np; Np→p→p; p→q→.Nq→Np; p→q→N(p∧Nq); p→q→.p→Nq→Np; p→(q∧Nq)→Np; p→q→.p→r→.p→.q∧r; p→(q→r)→.p→q→.p→r; p→q→.r→p→.r→q; p→q→.q→r→.p→r; N(p→p)→.p→p; N(p→p→N(p→p))→.p→p; p→q→r→(p→q)→.p→q; p→q→r→.q→p→r→r; p→q→(q→p)→.q→p; p→q∨.q→p; evitando, en cambio, la teorematicidad de los esquemas: p→.q→p ; p∧Nq→r→.p∧Nr→q; p→(q→r)→.q→.p→r; p→.p→q→q; p→(q→.p→r)→.q→r; p→.p→p; p→q→.p→.p→q; p→q→.q→.p→q; p∧q→r→.p→.q→r; ninguno de los cuales es compatible con la idea de que pIq sea una fórmula verdadera sys es tan verdadero que p como lo sea que q. (Es más: cada uno de esos esquemas no teoremáticos es tal que, escribiendo, para hacer las veces de su respectiva prótasis implicacional, p, y, para hacer las veces de su apódosis, q, no se cumple la condición: p|=q.) Los functores `I' y `→' son interdefinibles: si `→' es primitivo, pIq es definible como p→q∧.q→p. De paso pruébanse otros esquemas característicos de otros sistemas lógicos, como el conexivismo: el llamado principio de Boecio (p→q→N(p→Nq)) y el de Aristóteles (N(p→Np)). Y finalmente estos dos: p→NpI.p→N(pIp) y el principio de Heráclito: N(pIp).

La lógica AξI no es sólo paraconsistente sino contradictorial, ya que hay un cierto esquema tal que contiene como teoremas ese esquema y su negación simple: pIp y N(pIp). También tenemos: pIpIN(pIp).

Hay una razón importante para no estar todavía satisfechos con el resultado, y es que, si bien la lógica que hemos obtenido es genuinamente infinivalente (no es caracterizable por ninguna clase unitaria de matrices con un número finito de elementos), su vocabulario lógico es tan pobre que no podemos en ella expresar más que tres matices veritativos: o decir que ¬p, o que ¬Np o que p∧Np. De p∧Np y ¬Nq podemos deducir p\q, pero nunca p\Np ni Np\p ni pINp. En general esta lógica no nos sirve como lógica de lo difuso porque no podemos establecer ninguna relación inferencial entre los matices de los asertos y la mayor o menor verdad de unos u otros. La lógica en cuestión no contiene ningún vocablo que exprese algo así como `más bien', `bastante', `un tanto', `muy', etc., ni, por lo tanto, teorema alguno que diga que, en la medida [al menos] en que algo sea muy verdadero, es verdadero [a secas]. (Eso de en la medida [al menos] en que p, q será nuestra lectura de p→q.)

No es ése el único motivo, como vamos a ver, para dar un paso más, introduciendo un nuevo functor primitivo. Otra razón es que hay ocurrencias de la conyunción `y', o quizá más bien de otras conyunciones copulativas que no son semánticamente reducibles a ella, que no vienen adecuadamente capturadas por `∧'. P.ej. hay un `y' de insistencia --quizá mejor representado por la partícula discontinua `no sólo ... sino [que] también'-- en la cual parece que los conyuntos interactúan en el sentido de que el grado de falsedad resultante podrá ser mayor que los grados de falsedad de sendos conyuntos. Así, supongamos que una cierta oración, p, es verdadera en un 33% aproximadamente, mientras que r lo es en un 66%: según el tratamiento hasta aquí propuesto p y r será tan verdadera como p, ni más ni menos; y lo propio sucederá para cualquier conyunción copulativa en vez de `y'. Sin embargo cabe sospechar que al decirse p y r (o no sólo p, sino que además r), se está diciendo algo menos verdadero que al decirse simplemente p: porque r dista de ser del todo verdad, el aserto copulativo en cuestión ha de añadir algo más de falsedad al grado de falsedad que ya tenía p. Representemos esa conyunción copulativa más fuerte como `●': aseverando p¹●p²●p³●...●pn, donde para cada i≤n pi tiene un valor de verdad infinitamente inferior al máximo, se estará haciendo un aserto cuyo grado de falsedad será, cæteris paribus, tanto mayor cuantos más conyuntos haya (y no sólo cuanto menos verdaderos sean). La introducción de esa superconyunción nos va a permitir obtener, como definidos, muchos functores de matiz alético.

Otra razón más por la cual es conveniente añadir una conectiva que nos permita definir infinitos functores monádicos de matiz alético es ésta. El functor condicional `⊃' cumple los dos requisitos enumerados más arriba (rº1º) y (rº2º) para los condicionales, de suerte que podemos justificar la presencia de ese functor definido por su conexión con la deducción. En cambio nada similar justifica la presencia del functor implicativo `→': entendiendo la operación de consecuencia del modo clásico --que es el que ha venido adoptado en este trabajo (recuérdese la observación parentética del final del párrafo sexto de este mismo §2)--, no hay ningún nexo de inferencia entre {p¹,...,pn} y {r} suficiente para que sea teoremática la fórmula p¹∧...∧pn→r. Dicho con otras palabras: el menor superconjunto de {p¹,...,pn} cerrado con respecto a todas las reglas de inferencia de las lógicas que estamos examinando puede abarcar a r sin que por ello abarque a p¹∧...∧pn→r. (El fundamento de ese desempate entre la inferibilidad y el functor implicativo `→' estriba en que el sentido de p→q es que q sea a lo sumo tan falso como lo sea p, al paso que q se infiere de {p¹,...,pn} sys o bien uno [al menos] de entre ,...,pn es del todo falso, o bien q es [en uno u otro grado] verdadero.) Esa falla puede corregirse con ayuda de la superconyunción y de los functores de matiz veritativo que mediante ella nos será dado introducir.

En el intervalo [0,1] podemos tomar x●z como el producto multiplicativo x×z. Esta operación tiene los rasgos siguientes: conmutatividad, asociatividad, elemento neutro (el elemento máximo del álgebra en cuestión); además, ● es distributiva con respecto a las operaciones ∨ y ∧: x●(z∧u) = x●z∧(x●u); x●(z∨u) = x●z∨(x●u). (Eso significa que ● es una operación isótona, o sea que, si x≤z, entonces x●u ≤ z●u.) Con respecto a N, ● tiene una característica especialmente importante, definiendo en general Ky como N(Ny●Ny): si x = z●z, Kx = z; más en general: si x●x = z, u●u = v, entonces K(z●v) = x●u. Otra característica de ● es el principio de cancelación: x●z < x●u sys u>z.

Aunque hemos tomado como ejemplo un caso muy particular (esa matriz cuyo portador sea [0,1] y cuyo cúmulo de valores designados sea el filtro de elementos densos ]0,1]), cabe señalar que hay muchas que son isomórficas con ésa. Pueden tomarse como ejemplos: primero el álgebra que llamaremos A, a saber: una cuyo portador sea þ = [--∞,+∞] donde ∧ sea la operación max, ∨ sea min, N sea --, ¬x=∞ si x≠∞, y ¬∞=--∞; y ● será así: ∞●x=∞=x●∞; --∞●x=x=x●--∞; si -∞<x≤z<∞, x●z = z●x = log2(2x+2z) (+ aquí sí es la adición). Otra igual es un álgebra cuyo portador sea [0,∞], Nx sea 1/x, x●z sea x+z (+ también aquí es la adición), ∨ sea min y ∧ sea max: en estas álgebras ∞ es el elemento nulo o cero algebraico, y el orden algebraico es inverso al orden numérico usual. En la última álgebra considerada el ½ algebraico es el 1 numérico: en la anterior, el 0 numérico.

Como todas esas álgebras son isomórficas entre sí, tienen una serie de rasgos además de los que nos interesan. Veámoslo con un simple ejemplo: tomemos el intervalo de los números racionales [0,∞] con las operaciones definidas igual que sobre el intervalo de los reales con los mismos extremos. Se ve en seguida que no son isomórficas ambas álgebras.

Mientras que hay muchas lógicas que tienen matrices características finitas, hay pocas que tengan matrices características infinitas. Generalmente, cuando se transciende la finitud hay que caracterizar a un cálculo lógico por una clase entera de matrices --con múltiples, en verdad infinitos, miembros-- y ya no por una matriz en particular (salvo las matrices de Lindenbaum, que son matrices cuyos respectivos portadores son clases de fórmulas).

Hay un importantísimo rasgo de la clase de aquellas ξI-matrices a las que se haya enriquecido con la operación ●: ninguna de tales matrices tiene un número finito de elementos; y ello por el postulado de cancelación.

Hay todavía una razón para pensar que está incompleta nuestra busca de operaciones: llamemos matrices Ω a las que están algebraicamente caracterizadas por las operaciones (∨, ∧, ●, I, N y ¬) y por los postulados que acabamos de proponer, siendo en cada caso D el filtro de los elementos densos, o sea de los elementos x tales que ¬x = 0. Salta a la vista que en muchas de estas matrices 0 es el ínfimo de D (el elemento ínfimo de un subconjunto X de un conjunto Z --notado como ⋀X-- es la mayor cota inferior de X, donde x es cota inferior de X sys cada z∈X es tal que z≥x; dualmente, el elemento supremo de X, ⋁X, es su menor cota superior, donde x es cota superior de X sys no hay z∈X tal que z/óx). Eso es muy grave, porque para extender un cálculo sentencial a uno cuantificacional habrá que dar al cuantificador un tratamiento más o menos así: una valuación, v, enviará a la fórmula ∀xp sobre una imagen suya, u, sys u es el ínfimo del conjunto de elementos z tales que z = v'(p) para alguna x-variante v' de v, donde una valuación es una x-variante de otra sys a cualquier argumento que no contenga la variable `x' le hacen corresponder la misma imagen (el mismo valor). Entonces puede suceder que para cierta fórmula p se tenga que sea válida cada fórmula p[x/a] (cada resultado de reemplazar uniformemente en p las ocurrencias libres de `x' por sendas ocurrencias de un término `a'), pero en cambio ∀xp sería inválida. Basta para ello con tomar como p el principio fuerte de tercio excluso, r∨¬r, siendo r una fórmula con alguna ocurrencia libre de la variable `x', pero por lo demás indeterminada por los postulados que hemos sentado. Es obvio que para cada valuación v que envíe a r sobre un elemento denso, u, habrá otra que lo envíe sobre otro z < u. Entonces, si bien será una fórmula válida r∨¬r, no lo será ∀x(r∨¬r). (Es más: ¡¬∀x(r∨¬r) será válida!) La regla de generalización universal (p ├ ∀xp) no será preservadora de la validez, ni siquiera del estatuto de designación (no se tendría, pues, p|=∀xp).

Un remedio contra ese mal sería redefinir nuestras matrices de suerte que el filtro de los elementos designados no abarcara a todos los elementos densos, siendo el ínfimo de dicho filtro miembro del filtro. Pero entonces perderíamos el principio fuerte de tercio excluso y la definibilidad clásica del condicional, `⊃', p⊃s como abreviación de ¬p∨s. (Eso se debería a que habríamos perdido también la regla del silogismo disyuntivo para la negación fuerte, a saber: p∨¬q, q |= p.) También perderíamos el principio fuerte de no-contradicción, a saber: N(Lp∧Np), donde Lp abrevia a N¬p. Al tener que abandonar el condicional `⊃' definible del modo indicado, perderíamos muchas propiedades del condicional clásico, que es lo que les pasa a todas las lógicas multivalentes en las que se toma como filtro de los elementos designados a un subconjunto propio del cúmulo de los elementos densos de un álgebra de Stone. Perderíamos asimismo lo que cabe llamar regla de apencamiento, a saber: Lp|=p. En suma, caeríamos en una lógica más pobre, en vez de tener una que sea más rica que LC. (Lo que sí es cierto es que las primeras construcciones, históricamente, de lógicas multivalentes, reseñadas más arriba --en el §1-- siguieron ese camino; ninguna de aquellas lógicas era, pues, una extensión conservativa de LC.) Por otra parte, aun estando dispuestos a irnos al extremo de la parsimonia o austeridad y a no tomar como elemento designado más que al 1 algebraico o elemento máximo (que es lo que efectivamente hicieron las primeras lógicas multivalentes), no se habrían acabado las dificultades de esta índole: de hecho --según vino ya indicado en el §1-- el cálculo cuantificacional infinivalente de Łukasiewicz es inaxiomatizable.

En lugar de seguir ese camino trillado de achicamiento del conjunto de elementos designados, vamos a explorar otro, consistente en transformar a las álgebras que nos interesan en retículos fuertemente algebraicos, definidos como sigue. Un retículo es completo sys en él cada subconjunto de su portador (¡aun uno vacío!) tiene un ínfimo y un supremo. Obviamente para poder extender el cálculo sentencial a un cálculo cuantificacional hace falta que los modelos algebraicos que consideremos sean retículos completos. Pero no basta, ya lo hemos visto. (Si tomamos un álgebra cuyo portador sea un intervalo de números racionales, sería incompleta, pero si es de números reales será completa.) Hace falta que el filtro de los valores de verdad designados sea un filtro completo, o sea uno F tal que, si G ⊂ F, ⋀G ∈ F. Vamos a ver que una condición que asegura eso es que se trate de un retículo fuertemente algebraico.

Dícese que en un retículo z cubre a x, x╼z o z╾x, sys z > x y no hay ningún elemento u tal que z > u > x. Un retículo será llamado atómico sys para cada par de intervalos contiguos [a,b] y ]b,c] (o sea cada par de subconjuntos {v: a≤v≤b} y {v: b<v≤c}) hay un elemento v ≠ b tal que v╼b o b╼v; o sea: o v es el ínfimo del segundo intervalo, o es el supremo del intervalo [a,b[. Un elemento x es compacto sys todo subconjunto S de su portador es tal que: si ⋀S ≤ x, entonces x ≥ ⋀S', siendo S' un subconjunto finito de S. Un retículo es fuertemente algebraico (o, con otra palabra, engendrado de modo fuertemente compacto) sys es completo y cada par de intervalos cuasicontiguos [a,b[ y ]b,c] es tal que o bien el ínfimo del segundo es compacto, o bien lo es el supremo del primero.

Aunque esas nociones pueden parecer abstrusas, su utilidad estriba en este importantísimo Teorema: todo retículo fuertemente algebraico es atómico. Prueba: sean en el retículo fuertemente algebraico L tres elementos, a < e < b, sin que se tenga ni a╼e ni e╼b (de tenerse eso, tendríamos de entrada lo que buscamos). Tomemos los dos intervalos cuasicontiguos [a,e[ y ]e,b]. Supongamos que es compacto el supremo del primer intervalo, d. Tenemos que d ≤ ⋀]d,b]. Supongamos que no sólo es ≤ sino que es también ≥, o sea que d = ⋀]d,b], lo cual implica que d=e. Por ser compacto, habrá un subconjunto finito G de ]d,b] tal que d ≥ ⋀G, cosa imposible (G es finito, luego su ínfimo ha de ser miembro de G). Por el lema de Zorn se concluye que ]d,b] tiene un elemento minimal. (El lema de Zorn reza: si cada cadena de un conjunto [parcialmente] ordenado no vacío, E, tiene una cota inferior, entonces E posee un elemento x minimal, e.d. uno z ∈ E tal que para todo x ∈ E xþz.) Si ese elemento minimal es e, la hipótesis era falsa: d ≠ ⋀]d,b], o sea d╼e, pues evidentemente no puede haber ningún elemento entre d y e. Mas, si ese elemento minimal no es e, entonces tenemos lo que buscábamos: e╼⋀]eb]. Supongamos entonces la otra alternativa, o sea que ⋀]e,b] = h es compacto. Pruébase exactamente igual entonces que h < ⋀]h,b], o sea que existe un elemento k que es ⋀]h,b] y tal que h╼k. Si h=e, ya tenemos lo que andábamos buscando. Mas si no también, porque si h ≠ e, e╼h. Q.E.D.

Otro teorema dice que todo retículo fuertemente algebraico es algebraico, siendo un retículo algebraico uno en el que cada miembro es el ínfimo de un determinado conjunto de elementos compactos. He aquí la prueba: sea en un retículo fuertemente algebraico R un elemento e que no cumpla la condición. e estará en una línea divisoria entre intervalos cuasicontiguos [a,e[ y ]e,b], para ciertos a y b. Tomemos el intervalo ]e,b]; cada miembro de ese intervalo tendrá «al lado» (por arriba o por abajo) un elemento compacto; sea G el conjunto de esos infinitos elementos compactos pertenecientes al intervalo ]e,b]. La hipótesis que tratamos de reducir al absurdo nos fuerza a afirmar que ⋀G > e. Mas eso no es posible, porque entonces habrá sólo un número finito de elementos entre e y ⋀G, y entonces el propio e sería compacto (y por ende sería ⋀{e}). Q.E.D.

Suele llamarse noetherio a un retículo que no contenga ninguna serie infinita de elementos, a¹, ..., an, an+¹, ..., tales que ... > an > an-¹ > ... > a² > a¹. (Por el axioma de elección se prueba que tal condición equivale a que todo subconjunto no vacío del portador del retículo tenga un elemento minimal.) Pruébase con facilidad que todo retículo noetherio es algebraico. De ahí que se hayan buscado como modelos para la mayor parte de las lógicas multivalentes retículos noetherios, y por lo tanto que sean o finitos o productos de retículos finitos. Y es que, para su aplicación a los cuantificadores, la característica de que sea algebraico el retículo de los valores de verdad parece más que un mero desideratum. Además de la razón ya considerada (y decisiva), referida a la regla de generalización universal, existe otra, y es que hay un teorema del álgebra universal que reza así: todo retículo algebraico es continuo, entendiendo por tal uno con esta condición: para cada elemento b y cada cadena C, b∨⋀C = ⋀{b∨z: z∈C}. Para el tratamiento de los cuantificadores esa condición de continuidad significa la aplicabilidad de lo que se llama ley de paso: si p no contiene ninguna ocurrencia libre de la variable `x', p∨∀xqI∀x(p∨q) es teoremático; esa condición y la dual respectiva permiten aplicar procedimientos de prenexación, desprenexación, conversión a forma normal, etc.

Ya hemos visto empero los inconvenientes de la finitud. Es arbitrario postular que se tengan que dar exactamente n grados de verdad en vez de n+1. No hay números finitos lógicamente privilegiados. Afortunadamente hay cómo obtener que un retículo sea fuertemente algebraico (y por lo tanto atómico y continuo, en sendos sentidos más arriba apuntados) sin incurrir en la finitud. Es lo que voy a exponer a continuación.

Partimos del álgebra A, según vino definida más arriba (usando aquí los signos `≤' y `<' para referirnos al orden numérico, inverso del algebraico), pero ensanchando su portador a un conjunto S = þ∪{<r,a>: r∈þ & r>--∞}∪{<r,b>: r∈þ & r<∞}, donde a, b son entes cualesquiera. Postulamos: <r,a> < r < <r,b>. Y definimos (dejando correr a las variables `r', `r¹', `r²' sobre miembros de þ [incluidos ∞ y --∞]):

<r¹,a>●<r²,b> = <r¹●r²,b> si r¹≠∞;<∞,a>●x = <∞,a> si x≠∞;

<r¹,a>●r² = <r¹,a>●<r²,a> = <r¹●r²,a> si r²≠∞;∞●x=∞;

<r¹,b>●r² = <r¹,b>●<r²,b> = <r¹●r²,b> si r²≠∞;--∞●x=x;

y siempre x●z = z●x (lo cual termina de definir recursivamente la operación). Las definiciones de las operaciones ∨, ∧, ¬ son las mismas que en A; la operación N viene extendida así: N<r,a> = <Nr,b> y N<r,b> = <Nr,a>. A esta álgebra la llamaremos Aωα; al elemento <--∞,b> lo llamaremos ω; a <∞,a> llamarémoslo α.

En esta álgebra, el filtro de los elementos designados es {x: x≥α}, donde `≥' es el orden algebraico (inverso al numérico). Podemos también introducir el ideal de los elementos antidesignados (un ideal es un conjunto C tal que, si x≤z, z∈C entraña x∈C, y x∨z ∉ C sólo si o bien x∉C o bien z∉C); será tal ideal {x: x≤ω}. Todos esos signos encuentran lecturas naturales en la lengua vernácula: `¬' : `No...en absoluto'; `N': `no'; `∨': `o'; `∧': `y'; `●': `no sólo... sino que también'; `⊃': `sólo si'; `→': `sólo en la medida en que' o `sólo en tanto en cuanto'; `I': `en la misma medida en que'; --∞ es lo totalmente verdadero; ∞ la falsedad completa; α la verdad infinitesimal; ω el grado infinitesimal de falsedad (que es un grado infinito, aunque no total, de verdad).

Tomemos un lenguaje cuyas valuaciones tomarán sus valores en Aωα. Definiendo np como p●ω y mp como NnNp, la primera fórmula cabe leer como «Es supercierto que p», o algo así, y la segunda como «viene a ser cierto que p». Definiendo Pp como ¬¬(Np→p)∧p (que cabe leer como «Es más bien cierto que p»: `P' por `potius'), serán válidos los esquemas Pp∨PNp, p→q→.Pp→Pq. Valdrán las inferencias p╡|=α→p, Np╡|=p→ω, ¬p╡|=p→.q∧¬q y ¬p╡|=p\α. Definiendo Yp como pIα∧p, cabe leerlo como «Es infinitesimalmente verdad que p», y se tiene: Yp╡|=p∧¬(α\p).

En Aωα no vale ya el principio de cancelación que valía en A, salvo con una modificación, a saber: si x●z≅u●z, entonces o bien z≅∞ (el cero algebraico), o bien x≅u, donde `≅' expresa una diferencia a lo sumo infinitesimal de grado (o sea: <r,b> ≅ r ≅ <r,a>, pero en ningún otro caso x ≅ z). ≅ no es una congruencia. Pero cabe generalizar la noción de congruencia así: para el conjunto de operaciones {♬i} (i∈I) se tendrá que una relación de equivalencia, Θ, es una {♬i}(i∈I)-congruencia sys tiene la propiedad de sustitución para cada ♬i (i∈I). Pues bien, ≅ es una {∧,∨,N,●,m}-congruencia. (No tiene la propiedad de sustitución ni para I ni para ¬.)

En la semántica aquí esbozada p╡|=q no será una congruencia en el cálculo semánticamente definido (de p╡|=q no se sigue Np╡|=Nq, ni Yp╡|=Yq ni Pp╡|=Pq, etc.). Mas sí será una {∧,∨,¬,●}-congruencia. En verdad se trata de la relación de equivalencia entre p y q sys |= ¬¬pI¬¬q, la cual «corresponde» a su vez a la congruencia de Glivenko para un álgebra de Stone, a saber: xΘGz sys ¬¬x=¬¬z. El fragmento de este cálculo que tiene como constantes lógicas `∧', `∨' y `¬' es exactamente LC. (El cálculo, como se indicó en el §1, es además una extensión cuasiconservativa de cada lógica finivalente.)

Podemos añadir a las operaciones de esta álgebra un conjunto infinito de operaciones unarias δs, s∈S--{∞}, donde se tendrá: δsx=x si s=x; y, si no, δsx=∞. Entonces tendremos en el cálculo semánticamente definido con relación a esta álgebra sendos functores δs; δsp dice que es verdad que p en grado s. Resultado: sys δsp╡|=δsq para todo s, |=pIq. Y, más en general, sys para todo s X|=δsp sys X|=δsq, X |= pIq. Trátase, naturalmente, de secuentes infinitarios.

Ya hablamos más arriba de la relación entre las lógicas multivalentes y las relevantes. Precisamente una lógica que admite una bonita definición semántica como lógica infinivalente es el sistema (de la familia relevante) RM. (Cuando se trata de sistemas relevantes, es a menudo difícil saber quién es el originador de uno de ellos en particular; mas lo que es seguro es que quien más se ha destacado en el estudio de RM es Robert K. Meyer; v. su sección sobre ese sistema, §29.3, de Anderson y Belnap, 1975, 393 ss.) He aquí la matriz característica de dicho sistema: <I, D, N, ∧, ∨, →>, donde I es el conjunto de los enteros; D es el conjunto de los enteros no positivos; i∧j = max(i,j); i∨j = min(i,j); Ni = --i; y j→i =: Nj∨i si j≥i, y Nj∧i si j<i. Este sistema tiene una axiomatización finita muy elegante que resulta de añadir al sistema «relevante» R el célebre axioma «Mingle»: p→.p→p. Sin embargo, RM, aunque de esa familia, ya no es un sistema que cumpla los constreñimientos relevantes.

Pues bien, recientemente se ha estudiado una serie de sistemas intermedios entre las lógicas de la familia A --la que se ha venido exponiendo someramente en párrafos precedentes de este §-- y el sistema relevante E, que resulta de R al suprimir el axioma de permutación: p→(q→r)→.q→.p→r. He aquí cómo es uno de ellos, P5. Puede axiomatizarse con estos 10 esquemas axiomáticos:

p→q→r∧(q→p→r)→rp→q∧(q→r)→.p→r

p∧q∧r→.r∧p∧qp→q→.r→s→.p→q∧.r→s

p→q→r→s∧(♦(p→p)→(p→q)→s)→sp∧q→p

p→q→.p→.p∧qNp→q→N(p→q)

p→Nq→.q→NpNNp→p

Los functores primitivos son `∧', `→', `N'. `♦' es definido así: ♦p abr. N(p→Np); p∨q abr. N(Np∧Nq). Una sola regla de inferencia: para n≥1: p¹→q∨.p²→q∨....∨.pn→q, , ..., pn ├ q. (Cuando n=1, trátase del modus ponens normal y corriente.) Este sistema tiene como característica una clase de matrices infinitas, parecidas a la de RM (y de hecho varias similitudes con RM): el portador será I∪{--∞, ∞}; las mismas asignaciones para los functores excepto para `→': j→i =: ∞ si j<i; 0 si j≥i; el conjunto de elementos designados, D, variará de una matriz a otra, si bien siempre [--∞,0] ⊂ D. Esa clase de matrices se llamará P, siendo Pj aquella matriz de la clase P cuyo conjunto de elementos designados sea {x: x≤j}; y P<j aquella en que sean designados todos los elementos < j. Las discrepancias entre RM y P5 son tan significativas como las convergencias. P.ej. en RM, mas no en P5 vale este teorema: p∧Np∧q∧Nq→.pIq (donde, claro, pIq abr. p→q∧.q→p). P5 y RM son paraconsistentes, mas sólo el primero es contradictorial.

¿Tiene P5 una matriz característica? No puede ser P<∞, porque en ella para cualesquiera fórmulas, p, q, se tendrá la validez (con relación a P<∞, tomada como característica) de la fórmula p→q∨p, que no es teoremática en P5. Por otro lado, hay una diferencia entre P5 y una lógica definida como caracterizada por la matriz P0: en esa lógica la operación de consecuencia |=P será tal que {p, Np, q, Nq} |=P pIq (igual que en en RM). Y esa regla de inferencia no es derivable en P5. Sin embargo, los teoremas de una lógica así definida sí son exactamente los de P5.

El más fuerte de los sistemas de esa cadena es P10, un sistema que el lector va a reconocer inmediatamente como de la familia A, que hemos venido examinando; P10 añade a P5 dos nuevos functores, `H' monádico (`Es totalmente cierto que') y `α', 0-ádico, o sea una constante sentencial, que denota la conyunción de todas las verdades (lo infinitesimalmente verdadero). Los esquemas axiomáticos adicionales son cuatro:

p→q→.NHNHp→HqHp→q∨.Np→rα→p∨.p→qα

P10 sí tiene una matriz característica, que es como una para P5 sólo que el portador ha sido aumentado con dos elementos, α (siendo cualquier entero e < α < ∞) y Nα, tal que cualquier entero e > Nα > --∞. Todos los elementos son designados salvo ∞. Cualquier valuación, v será tal que v(Hp) = --∞ si v(p) = --∞, y, si no, v(p) = ∞. v(α)=α (para cualquier v). Todo eso es como el lector ya lo esperaba, a estas alturas.

Quedan todavía por resolver muchísimos problemas con respecto al género de lógicas infinivalentes cuyo estudio viene posibilitado por las álgebras del tipo recién considerado. P.ej.: ¿cuál es la axiomática más simple y elegante para el álgebra Aωα y las a ella isomórficas? Una vez dados ciertos postulados que recojan las propiedades lógicamente interesantes de esas álgebras (y se han propuesto varios conjuntos de tales postulados, recogidos en las obras ya citadas, que figuran en la bibliografía), ¿cuál es la menor álgebra --que no sea simplemente un álgebra de Lindenbaum o de Tarski-- que los satisfaga todos (y que, por lo tanto, sea un retracto de Aωα, donde un álgebra A es un retracto de otra B sys hay un automorfismo idéntico de A [uno, m, tal que mx=x siempre] que es la composición o producto relativo de un monomorfismo de A en B con un epimorfismo de B en A)?


iii conclusiones

Están aún por investigar las cuestiones con que ha finalizado el § precedente --así como muchas otras--, pero lo que ya parece probado es que ese género de tratamiento abre perspectivas que incrementan la aplicabilidad y el grado de motivación filosófica de las lógicas multivalentes. De hecho, ese manido aserto de que las lógicas multivalentes son meros juegos matemáticos ha sido siempre desacertado (ya Łukasiewicz puso en pie su sistema movido por una idea filosófica, equivocada o no, que es el rechazo del determinismo), pero nunca ha sido tan falso como con relación a las lógicas algebraicas infinivalentes que acabamos de esbozar.

La idea de que hay sólo dos valores de verdad es tan respetable como cualquier otra tesis metafísica, añeja o no, pero frente a ella abonan razones de peso que no cabe dejar de escuchar atentamente; algunas de esas razones llevaron a una parte de la tradición filosófica --aunque minoritaria-- a la afirmación de grados de realidad y de verdad; otras de tales razones tienen que ver con problemas epistemológicos debatidos actualmente; y muchas de ellas guardan conexión con aplicaciones de la lógica a diversos campos del saber y de la investigación.

Teniendo en cuenta que generalmente el mundo se nos acaba presentando como más complicado de lo que nos lo solíamos imaginar, cabe conjeturar que es infinitamente complicado, y que una parte de esa complejidad viene dada por la infinivalencia veritativa, por los infinitos grados de verdad y de falsedad. También habría que tener en cuenta otra faceta, que multiplica al infinito la infinitud misma: en este trabajo sólo hemos considerado lógicas escalares, salvo una breve alusión a las álgebras producto. Hay razones --en las que ya no cabe entrar aquí-- para pensar que la realidad es más complicada, y que incurren en simplificación burda las lógicas escalares (aquellas en las que, para cualesquiera dos valores, x, z, x≤z o z<x): sería, en tal caso, más correcto representar a los valores de verdad como tensores o matrices infinitas (en el sentido del cálculo matricial). Entre otras cosas, así se podría dar un tratamiento más adecuado a problemas como algunos de la física cuántica o los del realismo modal de David Lewis y temas afines.

Una repercusión de la adopción de una lógica así sería que habría teorías aceptables no primas, o sea tales que p∨q podría ser afirmable con verdad sin que lo fueran ni p ni q. Naturalmente eso acarrea ciertas complicaciones para el tratamiento semántico de la disyunción.

Lo que parece más allá de la controversia es que las lógicas multivalentes no son ni matemática ni filosóficamente anodinas.


Bibliogrfía