Regresar a la Home
Google Scholar
 Nada de lo psicológico nos es ajeno
III Congreso Nacional de Psicología - Oviedo 2017
Universidad de Oviedo

 

Aviso Legal

ARTÍCULO SELECCIONADO

Psicothema

ISSN EDICIÓN EN PAPEL: 0214-9915

1996. Vol. 8, nº 2, pp. 435-444
Copyright © 2014


Imprimir Ver PDF    

  

PENSAMIENTO DIFUSO, PERO NO CONFUSO: DE ARISTÓTELES A ZADEH Y VUELTA

 

Julián Velarde Lombraña

Universidad de Oviedo

Fuzzy set and fuzzy logic theory was initiated by Zadeh in 1965. Since then, this theory was fully studied and used for the analysis, modelling, and control of technological and non-technological systems. In the early 1990s Japanese engineers have led the fuzzy revolution at the level of high-technology consumer products. The creeping fuzziness in the high technology of Eastern countries is explained by Kosko in Fuzzy Thinking (1994) as influence of the Zen Buddhism in Japanese thought and culture: Aristotle (Bivalence, A or not-A, exact, all or none, 0 or 1, digital computer, Fortran, bits) vs. the Buddha (multivalence, A and not-A, partial, some degree, continuum between 0 and 1, neural network (brain), natural language, fits). This paper presents a critical examination of that dichotomy, and we refute several theses which Kosko attributes mistakenly to Aristotle.

 
Imprimir

Ver PDF

Correspondencia: Julián Velarde Lombraña
Departamento de Filosofía
Universidad de Oviedo. Spain

 

El término inglés fuzzy es traducido habitualmente al francés por flou, al italiano por sfumato, y al español por difuso o borroso. Dicho término fue acuñado en inglés por L. A. Zadeh para designar una categoría en el ámbito de las Matemáticas, y más en concreto en una de sus ramas: la Teoría de Conjuntos. Su artículo germinal al respecto, en 19965, lleva por título Fuzzy Sets (Conjuntos difusos)1.

Zadeh, oriundo de Bakú capital del Azerbaiján soviético y emigrante a los EE. UU., era por entonces profesor de Ingeniería Eléctrica y Ciencia de la Computación de la Universidad de California, en Berkeley. Y, como ingeniero, había desarrollado sus investigaciones previas a 1965 en el campo de la Teoría de Sistemas, buscando refinar conceptos tales como estático y adaptativo. Su teoría de los conjuntos difusos tiene como objetivo tratar lo difuso de manera sistemática, aunque no necesariamente cuantitativa. Zadeh busca "un sistema que proporcione una vía natural para tratar los problemas en los que la fuente de imprecisión es la ausencia de criterios claramente definidos de tipos de pertenencia... ya que la mayoría de las veces, la clase de objetos con que nos encontramos en el mundo físico real no dispone de criterios definidos de pertenencia"2.

En la teoría clásica de conjuntos (llamada también teoría abstracta de conjuntos) desarrollada por G. Cantor (1845 - 1918), un conjunto es una colección de objetos que poseen algunas propiedades muy generales, pero no se toma en consideración nada acerca de la naturaleza de los objetos individuales. Los objetos individuales de la colección, llamados elementos del conjunto, tienen garantizada, y por igual, su pertenencia al conjunto, i. e., cada objeto (elemento) tiene definidos de manera precisa los criterios de pertenencia. Ejs.: "los divisores de diez"; "los seis primeros números primos"; "los días de la semana"; "los ciudadanos de Oviedo", etc.

En la teoría de conjuntos desarrollada por Zadeh, un conjunto difuso es una clase de objetos respecto de la cual un objeto no requiere o bien pertenecer o bien no pertenecer de manera absoluta a esa clase. Cada objeto puede tener grados intermedios de pertenencia en el intervalo [0,1]; la transición de la pertenencia a la no pertenencia es gradual más bien que abrupta. Ejs.: "las chicas atractivas"; "los estudiantes inteligentes"; "los números pequeños"; "los soldados altos", etc. Estos conjuntos vienen determinados por referencia a dominios específicos (locales).

Uno de los motivos por los que Zadeh sugiere, en 1965, el concepto de conjunto difuso es la inconsistencia del formalismo matemático o lógico que es empleado para describir fenómenos o relaciones mal-definidos, vagos o subjetivos. La tesis de la que parte Zadeh es la siguiente: los elementos clave en el pensamiento humano no son números sino rótulos (marcadores lingüísticos) de conjuntos difusos, i. e., clases de objetos en los que la transición de la pertenencia a la no pertenencia es gradual más bien que abrupta. La innegable realidad de lo difuso en los procesos del pensamiento y del razonamiento humanos sugiere que buena parte de la lógica propia del razonamiento humano no es la lógica clásica bivalente o incluso polivalente, sino una lógica con cuantificadores difusos, con funtores difusos, con valores de verdad difuso y con reglas de inferencia difusas.

Otra de las motivaciones de Zadeh es lo que él llama principio de incompatibilidad3 : en la medida en que crece la complejidad de un sistema, en esa misma medida disminuye nuestra capacidad para hacer precisos y aun significativos enunciados acerca de su conducta, hasta alcanzar un umbral, más allá del cual la precisión y la significación (o relevancia) resultan, casi siempre, características mutuamente excluyentes.

La teoría de lo difuso, si bien nació en el campo de las Matemáticas, pronto rebasó el ámbito estrictamente matemático, proporcionando una metodología sumamente útil especialmente para las llamadas "Ciencias blandas", como la Lingüística, la Psicología, la Sociología, la Economía, la Política, etc. Pero también para las técnicas: la Informática, la Electrónica, la Programación, etc., y para las teóricas: las Matemáticas, la Lógica, la Filosofía, etc. el desarrollo ha sido espectacular. En 1978 comienza la publicación de la revista Fuzzy Sets and Systems, dedicada con uno o dos números mensuales a cuestiones específicas sobre los sistemas difusos. Desde entonces, ha crecido enormemente el número de publicaciones, de congresos, de centros de investigación, de investigadores, sobre lo difuso. En todo ello sobresalen los japoneses. El gobierno japonés ha participado en la financiación de dos centros de investigación sobre lo difuso: en 1989, con 70 millones de dólares al LIFE (Laboratory for International Fuzzy Engineering Research) en Yokohama, al sur de Tokio. LIFE cuenta con miembros tan destacados como Toshiro Terano (director), Tomohiro Takagi (de la Panasonic), Michino Sugeno (del Instituto de Tecnología de Tokio, a quien se debe la construcción del helicóptero difuso), Katsushige Mita (presidente, a su vez, de la Hitachi). LIFE celebra cada dos años (empezó en 1991), en el mes de noviembre, un congreso sobre lo difuso. Tiene tres grandes laboratorios dedicados: el primero a sistemas de control difuso; el segundo al procesamiento difuso de la información; y el tercero a la computación y a los chips difusos. El otro centro subvencionado por el gobierno, ubicado en la isla de Kyushu, al sur del Japón, es el FLSI (Fuzzy Logic Systems Institute). Celebra su congreso internacional los años pares en julio, desde 1990, sobre lógica difusa y redes neuronales. El cerebro del FLSI es Takeshi Yamakawa. El gobierno japonés le ha encargado la planificación de una "tecnópolis" del siglo XXI. Yamakawa construye chips difusos, diseña modelos matemáticos difusos, modelos neuronales difusos y, además, las máquinas con las que construye sus chips difusos.

Siguen a Japón en la aplicación de la teoría difusa a la industria y a la electrónica de consumo los países del Lejano Oriente: Corea del Sur, La India, Taiwan, Hong Kong y China.

El triunfo de la teoría difusa en estos países viene propiciado por el "espíritu oriental", según trata de explicar Bart Kosko en su reciente libro Pensamiento borroso4.

Kosko es un converso a la doctrina difusa, y como tal es más papista que el papa: si Zadeh sostiene que las percepciones humanas conllevan la mayoría de las veces conjuntos difusos, Kosko, tras sumirse en una meditación zazen, tiene una iluminación, "el principio difuso": todo es cuestión de grado. En las formulaciones mismas encontramos las diferencia entre el prudente maestro y el radical discípulo. Zadeh emplea en su formulación un cuantificador difuso: La mayoría; Kosko, en su afán apostólico, vuelve paradójicamente a la doctrina que critica, al todo / nada. Y en la propia formulación su principio se refuta a sí mismo: de ser verdad el principio, algo hay (el propio principio) que es verdadero, no en parte o en grado, sino de manera absoluta. A este tipo de consecuencias indeseables suele conducir la rigidez de los malos discípulos, que elevan a dogmas las tentativas construcciones de los maestros, para establecer así, inmediatamente, sectas, grupos de iniciados, de ortodoxos, de heterodoxos, etc. Bastante buena muestra de ello es este libro de Kosko. Él, defensor a ultranza de la gradación, de los límites difusos, hace un planteamiento simplista, absolutamente dicotómico y binario: hay dos y solamente dos culturas (oriental / occidental), lógicas (bivalente / difusa), incertidumbres (probabilidad / borrosidad), padres de las criaturas (Aristóteles / Buda). Cada término del par, como sucede en la lógica binaria,es la negación del otro. Y no cabe término medio (o un tercero), de manera que cada una de esas variables toma uno y sólo uno de los dos únicos valores posibles (principio de bivalencia). Kosko esta ejercitando, pues, la metodología objeto de su crítica. He aquí algunas muestras:

"Estados Unidos y Japón dirigen el mundo en los negocios y la técnica, mandan en el dinero y en las matemáticas. Las culturas de ambos países derivan de las de otras naciones. La Grecia antigua es para Estados Unidos y la mayor parte de Europa lo que la China antigua y la India son para Japón. Aristóteles y Buda personifican esas dos raíces culturales" (pág. 77). "En Occidente, Aristóteles nos dio la lógica binaria y buena parte de nuestra visión del mundo. Nos enseñó a manejar el cuchillo lógico y a trazar siempre una línea entre los opuestos, entre la cosa y la no cosa, entre A y no A... Por el contrario, los grandes líderes culturales de Oriente eran "místicos". toleraban la ambigüedad o vaguedad, e incluso la promovían. Buda rechazaba el mundo blanquinegro de las palabras en su camino hacia el esclarecimiento espiritual o psíquico..." (pág. 76).

"Aristóteles frente a Buda" es el título del capítulo V, y constituye las coordenadas de todo el libro: Aristóteles (bivalencia, A o no A, exacto, todo o nada, 0 ó 1, ordenador digital, Fortran, bits) frente a, y correlativamente, Buda (multivalencia, A y no A, parcial, en algún grado, continuo entre 0 y 1, red neuronal, lenguaje natural, fits) (pág. 37). Pero estas coordenadas resultan ser, no ya difusas, sino confusas y erróneas, como consecuencia de utilizar como Aristóteles, como su filosofía y como su lógica algo que no nos explicamos de dónde lo habrá podido sacar. Quizás de alguna meditación zazen, pero de la lectura de sus obras, sin ninguna duda, no.

El desconocimiento de Aristóteles no es disculpable en quien se apoya en él para hacer filosofía sobre el "pensamiento borroso", de modo análogo a como otros lo hacen sobre el "pensamiento débil", por ejemplo. Tampoco es disculpable en quien contrapone radicalmente la lógica bivalente a la difusa la confusión de categorías lógicas tales como principio de bivalencia con principio de tertio excluso; negación con complementación; bivalencia con gradación; contradicción con contrariedad, etc. Veamos brevemente:

(1) Borrosidad - Bivalencia - Multivalencia - Contradicción - Tercero excluido.

Kosko hace el siguiente coctel: "Lo contrario a la borrosidad es la bivalencia... Borrosidad significa multivalencia" (pág. 31 - 32); "la lógica de Aristóteles se esconde bajo nuestros instintos bivalentes. Esperamos de todo enunciado "bien formado" que sea verdadero o falso. A o no A... El malo de la bivalencia es la contradicción lógica: A y no A" (pág. 36).

Apliquemos en estas materias, si es preciso, pensamiento y razonamiento difusos, pero no confusos. En primer lugar, la bivalencia y la borrosidad no son incompatibles. Por ejemplo, las setas de una bandeja pueden estar exclusivamente de dos maneras (bivalencia: o bien asadas o bien cocidas, si bien cada una de esas maneras (valores) es gradual: más o menos asada /cocida. A la bivalencia se opone la multivalencia. Pero la multivalencia, a su vez, no equivale a, ni "significa", borrosidad. Los posibles resultados (valores) de un partido de fútbol son, no dos (bivalencia), sino tres (trivalencia): gana / empata / pierde, y sin gradación alguna. En segundo lugar, la contradicción no es el malo de la bivalencia más de lo que lo es de la multivalencia o de la borrosidad. La contradicción es el malo de la lógica, sea la lógica que sea. Y, si no, ¿por qué se cantan las excelencias de la lógica difusa debido a sólo ella puede eliminar cierto tipo de contradicciones (paradojas), como la del calvo o la del montón? El principio de no-contradicción, en tanto que principio lógico, no está al mismo nivel que el de bivalencia. En el contexto (campo gnoseológico) de la lógica, el principio de no-contradicción es de "segundo grado" respecto de la bivalencia o la multivalencia. Así, establecido el primer nivel de m variables y n valores (n ≥ 2), el principio de no-contradicción viene establecido como un principio operatorio, interno al campo, a través de las operaciones (funtores) conjunción y negación, definidas, a su vez, no de manera abstracta e independiente (como términos atómicos), sino a través de las relaciones que guardan con los demás funtores del sistema, y habida cuenta de que las relaciones y operaciones se establecen según la materia (teniendo en cuenta la naturaleza) de los elementos sobre los que recaen. Así, la negación viene definida por sus relaciones con la complementación, el dual, etc.; relaciones que necesariamente varían según sea la naturaleza, la materialidad, de los argumentos sobre los que recae. En la lógica binaria la negación, como operación monaria, coincide con (es igual a) la operación complemento. Así, dada una variable (simple) booleana x, susceptible de tomar uno de los dos posibles valores: A / B (V / F, 1 / 0, + / -, cara / cruz, etc.) tenemos que, "por la naturaleza de las cosas" (porque así están materialmente constituidas las cosas A y B), la negación de A es igual a B, y el complemento de A es B. Si el universo de discurso U, la baraja española, se parte en dos: figura / número, entonces una variable booleana x, una carta, sólo puede tener uno de los dos valores posibles: figura / número. Tenemos, entonces (representando la negación de A por -A, y el complemento de A por A’):

-A = A’ = B; A * B = U ; B = U *’ A

En donde * simboliza la unión, y *’ la substracción entre conjuntos. De ahí que si, como es usual, en álgebra binaria se hace U = 1, entonces la definición usual de la negación es la de complemento para 1, i. e.: -A = B = 1 - A.

Pero si de un álgebra binaria pasamos a otra en la que los posibles valores de sus variables sean más de dos, entonces se hace necesario distinguir la negación del complemento, y, además, hay que tener en cuenta la naturaleza de los argumentos sobre los que recae: si son, o no, predicados vagos (conjuntos difusos). Y, además, caso de que sean difusos, es necesario determinar el número y las mutuas relaciones de los conjuntos difusos de U: si son dos (joven / viejo) o tres (frito / cocido / asado); si son antónimos (rico / pobre), si son, o no, disjuntos (grande / pequeño; alto / rubio), etc.

Según esto, la negación de un predicado vago, sea o no antónimo de otro, no es necesariamente un predicado vago. Por ejemplo, "seta venenosa"; "enfermo con fiebre", etc. Si el predicado vago V (venenoso) viene representado por el conjunto difuso V y definido por su función de pertenencia (y en función de la cantidad de amanitidina o muscarina necesaria para ser mortal (en cuyo caso x es venenosa en grado 1), entonces la seta x que tiene 3/5 de dicha cantidad es venenosa en grado 0,6. La negación del predicado vago V (venenosa) no puede venir expresada por la fórmula: no-venenosa = 1 - venenosa = 1 - 0,6 = 0,4, porque en ese caso tendríamos que la negación de x es venenosa en grado 0,6 es igual a x es venenosa en grado 0,4. Pero lo que intuitivamente significa "x no es venenosa" es que x no tiene nada de dicha sustancia, i. e., que x pertenece al conjunto difuso V en grado 0, y que si tiene algo de dicha sustancia, deja de ser no-venenosa para ser venenosa, en el grado que sea. En este caso A = venenosa y B = no-venenosa conforman el universo U. Por tanto, A y B son complementarios respecto de U. Ha de valer: A * B = U. Pero la negación de A no es su complemento para 1 en su función de pertenencia. En conclusión, no resulta correcto caracterizar (de manera general) la negación de un predicado vago como la complementación para 1 en su función de pertenencia de su correspondiente subconjunto difuso.

Además, los predicados vagos (los subconjuntos difusos) que componen el universo U de valores puede que sean más de dos; por ejemplo, tres: A = frito, B = cocido, C = asado; en este caso entre sí disjuntos: x A w x B w x C, pudiendo una seta x estar frita / cocida / asada en cierto grado (del intervalo [0,1]). Si x está frita en grado 0,7, no cabe interpretar "x no está frita" como 1 - 0,7 = 0,3, i. e., como que está frita en grado 0,3, sino que más bien -A es B w C. Los tres subconjuntos A, B y C conforman U. Si de la bandeja U de setas (fritas, asadas y cocidas) un comensal pide una no-frita, ello significa que pide una asada o (exclusivo) una cocida.

De lo anterior se desprende que siendo A un predicado vago (o su correspondiente conjunto difuso), la negación de A, i. e., -A, ha de venir "modelizada" así: -A = 1 si A = 0; -A = 0 si A > 0. Dicha caracterización se adecua a la clásica de la lógica bivalente, i. e., si se reduce U a dos valores {1,0}, en cuyo caso la negación equivale a la complementación y posee sus mismas propiedades. Pero fuera del ámbito bivalente, la negación (tal como ha sido caracterizada aquí) tiene otras propiedades y otras relaciones con las restantes operaciones distintas de las que tiene la complementación.

Si, ahora, procedemos de manera análoga en la determinación de la operación binaria conjunción (o paralelamente la intersección) entre los argumentos A y B, y queda definida en una lógica difusa (o multivalente) como el mínimo de los valores de A y B, i. e., A & B = min.{A,B}, entonces en esta estructura multivalente y difusa, proveniente de la "naturaleza de las cosas", resulta válido el principio de no-contradicción, i. e., -(A & -A) = 1. Por lo tanto, no son lógicamente correctas las siguientes consecuencias que extrae Kosko:

(1) "sabemos que el valor de verdad (V) de no-A es igual a 1 menos el valor de verdad de A, o V(no-A) = 1 - V(A)"(pág. 105, nota). ¿Por qué medio lo sabemos?

(2)"Ac denota el complemento de A, o conjunto no A. Con conjuntos no borrosos la intersección está vacía... Con conjuntos borrosos la superposición o intersección es siempre mayor que cero" (pág. 134, nota). ¿Cómo es que Kosko apela a un cuantificador absoluto, universal, ("siempre") en lógica borrosa, a la vez que confunde el complemento de A con la negación de A en todo contexto? Kosko generaliza su "teorema de la entropía borrosa" a partir precisamente de la reducción del universo de discurso U a un caso de bivalencia: aquel en el que U está formado por dos subconjuntos difusos antónimos que se solapan, y definiendo cada uno de ellos por la negación del otro: alto / bajo; rico / pobre, etc.. Pero, ¿y si en vez de dos nos topamos con tres o más subconjuntos difusos como componentes de U, como en el ejemplo anterior: U = {frito / asado / cocido}. Si x está asado en grado 0,6, ¿que significa (a qué es igual) "x no está asado"? ¿cuál es (a qué es igual) su complemento?

(3) "La borrosidad empieza donde empiecen las contradicciones, donde A y no A valga hasta cierto grado... Por eso, para quitarle hierro a esa ecuación de la que hablo, la ecuación fundamental de este libro y de la lógica borrosa, le daré un nombre que, con seguridad, van a ridiculizar científicos y matemáticos, el de ecuación del yin - yang : A = no A. Es una ‘contradicción’ bajo la forma de una ecuación. En vez de escribir ‘A y no A’ o ‘A es no A’, el signo de igualdad iguala las dos proposiciones con todo el rigor y pompa de la matemática formal. Esto equivale en lógica a un bicondicional: A implica no A y no A implica A. Por tanto las paradojas del razonamiento bivalente se reducen a la ecuación del yin - yang" (pág. 39).

La no-contradicción es algo más que un principio lógico; no es específico de la lógica; pero afecta a las condiciones de posibilidad de la lógica. Y, en ese sentido, la transciende, porque afecta asimismo a las condiciones de posibilidad de la metafísica (ontología) y de la psicología (o epistemología); es, pues, un principio "trascendental" (en el sentido de Kant). Viene establecido operatoriamente (en el regressus) por Aristóteles (Metafísica, , 4) a través de múltiples "pruebas" extraídas de otros tantos campos gnoseológicos: físico, lógico, semántico, ontológico,... hasta el caso límite, que presenta una disyuntiva: o esto (el principio) o nada. El quid es aquí, obviamente, no que si negamos el principio de no-contradicción el pensamiento se moverá hacia una conclusión absurda, sino que bajo tal condición el pensamiento no se moverá ni puede moverse en absoluto: ni pensamiento "borroso", ni "débil", ni nada de nada. Si el pensamiento se detiene -como dice B. Bosanquet, Mind, 31 (1922), pág. 181-, "aquí está actualmente nuestra última contradicción... Si está prohibido afirmar algo como verdadero más bien que no, está prohibida toda afirmación en absoluto. Tenemos, así, un genuino caso de ‘esto o nada’".

¡Ojo!, pues, con la contradicción. Ya hemos demostrado más arriba que la lógica difusa no necesariamente implica la negación del principio de no-contradicción. Resulta, por tanto, falsa la afirmación que hace Kosko en la pág. 134, nota: "la borrosidad empieza donde la lógica occidental acaba".

Como también es falso identificar la lógica de Aristóteles con la lógica bivalente. Los padres y defensores a ultranza de la bivalencia son los megáricos (y sus seguidores los estoicos). Aristóteles, en cambio -precisamente en polémica con los megáricos-, fue el primero en poner en cuestión el principio de bivalencia: "en algunos casos hay eventualidad y de la afirmación y la negación ninguna es verdadera más bien que la otra" (De interpretatione, cap. 9). Evidentemente, Aristóteles, aquí, está más cerca que Kosko de Zadeh. Aristóteles emplea un cuantificador difuso: "en algunos casos" (luego veremos su alcance), en tanto que Kosko propende constantemente a la cuantificación absoluta. Así su "teorema de la entropía borrosa" es absolutamente verdad en todo tiempo: "era verdad, es verdad, siempre será verdad" (pág. 134). El problema (la contradicción) está en que el teorema dice que nada es absolutamente verdad.

Borrosidad vs. Probabilidad

El "teorema de la entropía borrosa" E(A) viene formulado como un grado de la condición de subconjunto, S : E(A) = S(A Ac, A Ac) = Grado (A Ac A Ac), i. e., la parte incluye al todo sólo en cierto grado. Por tanto S(A Ac , A Ac) ≤ 1. Este teorema "explica la probabilidad o ‘aleatoriedad’ como el todo metido en la parte... es igual al número de veces que Buda contiene a Aristóteles... A o no A metido en A y no A" (pág. 135). "La prueba... se me ocurrió mientras estaba a remojo en un jacuzzi" (pág. 69). Y con este teorema - "el todo en la parte" = "la idea más profunda y extraña de la lógica borrosa"- alcanza Kosko, por primera vez en la Historia, la clave (y la explicación) de la Probabilidad: "Durante siglos, a los científicos y a los matemáticos se les ha escapado esta idea tan simple. Se les escapaba por lo mismo que a mí: Aristóteles había decretado que la mera idea de ello era contraria a la ley. Presumíamos, simplemente, que la inclusión era del todo o no era en absoluto, que era o blanca o negra, bivalente" (pág. 68).

De nuevo aparece aquí el pensamiento, no difuso, sino confuso. Kosko confunde grados de inclusión con si es, o no, inclusión. La inclusión es una relación (entre conjuntos), como la división lo es entre números. Ambas son relaciones antisimétricas. La primera es difusa; la segunda, no. Ni la una ni la otra se confunden con sus conversas. Por eso, lo que "presumíamos" y lo que seguimos presumiendo es, no que la inclusión "era del todo o no era en absoluto", sino que tal relación es, o no, inclusión, sea en el grado que sea. Antes de Kosko, otros teóricos de lo difuso (empezando por el mismo Zadeh: "Calculus of fuzzy restrictions" (1975)) han tratado y sometido a cálculo las relaciones difusas. Y antes de la aparición de la teoría de lo difuso, lógicos ha habido que han tratado de manera gradual la inclusión: en la lógica tradicional (aristotélica), la proposición tipo sujeto - predicado, exceptuada la cuantificada universalmente (todo / nada), expresa inclusión parcial (gradual) del sujeto en el predicado: "Algunos A son B"; "bastantes A son B"; muchos A son B, etc.

Por tanto, no confundamos grados de inclusión (borrosidad) con bivalencia (como ya hemos señalado). Pero no aumentemos la confusión haciendo a Aristóteles el responsable de "la concepción blanquinegra del mundo", la cual vale siempre en la probabilidad (pág. 23).

El mismo Zadeh presenta su Teoría de la Posibilidad -en tanto que desarrollo de los conjuntos difusos- como complementaria más bien que como competitiva con la Teoría de la Probabilidad5. Y lo que es más importante dejar claro (no confuso) aquí: el mismo Aristóteles tiene una teoría de la posibilidad concordante con la actual teoría de la posibilidad desarrollada por Zadeh. Resumimos, brevemente, la doctrina aristotélica:

Lo posible -mundo de los seres que llegan a ser y dejan de ser- se divide en dos ámbitos (Primeros Analíticos, 32 b): (a) "lo que llega a ser habitualmente (to hos epi to polu), pero no alcanza a ser necesario". (b) lo indeterminado (to aoriston), lo que puede llegar a ser de este modo o no de este modo, o lo que llega a ser de manera totalmente fortuita (hapo tuches). De lo fortuito no cabe ciencia (episteme); pero de lo habitual sí cabe conocimiento demostrativo. Lo habitual viene, a su vez, referido a acontecimientos o sucesos en uno de estos dos ámbitos: (a) ámbito de la physis. Por ejemplo, que los hijos se parezcan físicamente a sus padres (De la generación de los animales, 772 b). Aquí lo opuesto a lo habitual es lo monstruoso, la excepción a lo natural, el accidente, que resulta lo indeterminado incognoscible. (b) Ámbito del deliberar y del actuar (bouleuesthai, pragmateuesthai), Aristóteles, De interpretatione, 18 b), significando, entonces, el resultado usual fruto de la deliberación y de la acción. En este ámbito, en el que intervienen las acciones voluntarias de los seres racionales, lo habitual tiene como complemento, no lo monstruoso, la excepción de lo natural, sino lo raro, la excepción de la praxis. Aquí, a lo habitual, a lo muy posible, se opone lo menos posible (Tópicos, 112 b).

Este ámbito de la posibilidad (= ámbito de lo habitual en el sentido indicado) tiene dos límites: uno superior = la suprema posibilidad, equivalente a la necesidad de lo actual; y otro inferior = la posibilidad nula, equivalente a la imposibilidad. Ni sobre lo necesario ni sobre lo imposible cabe deliberación o actuación (Ética a Nicómaco,1112 a y b). Entre esos dos límites está el terreno de lo que es más o menos posible (posibilidad gradual), en el que cabe ejercitar la deliberación y la acción, y en el que vigen las leyes de lo habitual.

La posibilidad así entendida concuerda con la Teoría de la Posibilidad desarrollada por Zadeh 6 como complemento de la Teoría de la Probabilidad. Ambas teorías tratan con la incertidumbre (con to adelon en terminología aristotélica). Pero hay dos tipos de incertidumbre: está la incertidumbre como medida de la probabilidad de sucesos casuales y fortuitos (hapo tautomatou kai hapo tuches: Aristóteles, Física, 196 b). La incertidumbre reside, entonces, en la aleatoriedad de los sucesos, aun cuando éstos sean precisos, y las proposiciones correspondientes sean inambigüamente verdaderas o falsas. Por ejemplo, "lanza un dado y saca un AS"; "el próximo mes de mayo nevará"; o el ejemplo que pone Aristóteles (Metafísica, 1064 b): "que haga frío bajo la canícula es algo que no ocurre ni siempre ni necesariamente ni habitualmente, sino accidentalmente"; y la causa de lo accidental es la fortuna y el azar (Física, 196 b). Este tipo de incertidumbre constituye , fundamentalmente, el campo de la Teoría de la Probabilidad.

Pero la incertidumbre puede provenir de la imprecisión, causada por la vaguedad o la ambigüedad. Los predicados ambiguos o vagos inducen conjuntos difusos o borrosos en el sentido de Zadeh. Los predicados, cuantificadores, calificadores, etc., vagos son intrínsecos en los lenguajes naturales; producen, por tanto, necesariamente incertidumbre en los enunciados de los que son constituyentes. Hay usos del lenguaje ordinario (por ejemplo, "es muy posible que la persona A gane el concurso B", "el alumno C tiene muchas (pocas, bastantes) posibilidades de aprobar la asignatura D", etc.), en los que la fuente de incertidumbre no parece probabilística; depende, no de algo así como la suerte, la casualidad, la verosimilitud,..., conceptos éstos probabilísticos, sino de conceptos posibilísticos tales como plan, elección, preparación, dificultad, oportunidad,... Según esto, en tanto que las teorías de la probabilidad se configuran (o tienden a configurarse) como modelos del determinismo dentro de procesos aleatorios, la Teoría de la Posibilidad resulta más afín al voluntarismo, definiendo los límites, fronteras u horizontes dentro de los que la gente hace hos epi to polu sus elecciones: ámbito aristotélico de la bouleusis y la praxis. En este ámbito la posibilidad queda troceada, graduada, en el intervalo [0,1], en vez de en sólo dos valores {0,1}. Y esta interpretación -la admisión de grados intermedios de posibilidad- se adecua mejor al significado de expresiones frecuentes, tales como: "es muy posible que el partido A obtenga 100 escaños en el Parlamento"; "hay una posibilidad bastante remota de que reviente la presa A"; "Juan tiene pocas posibilidades de superar la prueba", etc. Este es el ámbito sobre el que recaen las consideraciones de Aristóteles, tradicionalmente llamado "de los futuros contingentes": lo posible o contingente; pero no lo posible aoriston dependiente del azar (hapo tautomatou) o de la fortuna (hapo tuches), sino lo posible habitual y que no alcanza lo necesario (hos epi to polu gignesthai kai dialeipein to anagkaion)(Primeros Analíticos, 32 b; Tópicos, 112 b; De interpretatione, 19 a). Este posible o contingente futuro habitual constituye un ámbito limitado por otros dos: (a) uno superior: la necesidad de lo actual en tanto que actual, y (b) otro inferior: lo imposible. Si prescindimos de lo posible habitual y nos atenemos exclusivamentea los dos ámbitos extremos y hacemos de ellos los fundamentos respectivos de la verdad y de la falsedad (i. e., ponemos en correspondencia a la verdad con el ser (y, por tanto, con la necesidad en tanto que es) y a la falsedad con lo que no es actualmente, i. e., con lo imposible actualmente), tendremos entonces el sistema clásico de lógica bivalente y la estructura correspondiente de la lógica modal clásica. Pero ello supone excluir el ámbito de lo posible habitual, objeto de las consideraciones de Aristóteles, quien expresamente dice que el esquema bivalente no sirve para el ámbito de lo posible habitual, en el que los hechos dependen, no del azar o la fortuna, ni de lo necesario en tanto que ya está en acto, sino de las acciones voluntarias de los seres humanos. Este ámbito constituye el campo de las posibilidades; no de la posibilidad tomada como un valor atómico, puesto a su vez en correspondencia con un tercer valor veritativo a lado de verdad y falsedad, tal como hace Lukasiewicz, proclamando de esta manera a Aristóteles el padre de la lógica trivalente. Lo posible habitual no constituye una unidad discreta, ni siquiera un conjunto infinito (numerable) de grados de posibilidad (i. e., no se tata de pasar de la lógica trivalente a la lógica polivalente o infinitamente valorada de Lukasiewicz, porque en ésta los grados de posibilidad (los valores) siguen siendo atómicos, unidades discretas). Los futuros contingentes (posibles) que tienen su origen en las acciones voluntarias de los sujetos humanos constituyen una franja entre dos límites, un todo continuo, troceable en conjuntos de posibilidades difusos ( = valores). De manera que sólo la reciente Lógica de la Posibilidad, desarrollada por Zadeh a partir de su Teoría de los conjuntos difusos, puede procurar, según esto, una interpretación correcta de la doctrina aristotélica.

Conclusión: para colocar a Aristóteles frente a... hay, primero, que aprehenderlo. Y Aristóteles es mucho Aristóteles.

1 En Information and Control, 8 (1965), págs. 338 - 353.

2 Ibidem, pág. 338 - 39.

3 L. A. Zadeh, "The concept of a lingüistic variable and its application to approximate reasoning", en Information Sciences, 8 (1975), págs. 199 - 249).

4 B. Kosko, Fuzzy Thinking. The New Science of Fuzzy Logic (1993). Trad.: Pensamiento borroso. La nueva ciencia de la lógica borrosa. Crítica, Grijalbo Mondadori, Barcelona, 1995.

5 La conferencia pronunciada por Zadeh con motivo de su investidura como Doctor "honoris causa" de la Universidad de Oviedo (1-12-95) lleva por título: "Probability theory and fuzzy logic are complementary rather than competitive".

6 L. A Zadeh, "Fuzzy sets as a basis for a theory of possibility", en Fuzzy Sets and Systems, 1 (1978), págs. 3 - 28. La noción de posibilidad en esta teoría es diferente de la que aparece en la Lógica Modal, en enunciados de la forma: "es posible que...", "es necesario que...", etc., en donde los valores veritativos de las modalidades son atómicos; son dos: lógica modal bivalente.


Regresar a la Home Buscar en la página Contacta con nosotros Regresar a la Home