460
Gran Danés adulto o un Pony Shetland adulto en mi estudio" de la
clase de los enunciados básicos, aunque no quiero excluirlos de la clase
de los enunciados empíricos. Pues si bien nuestra intención es garantizar
que todos los enunciados básicos sean obviamente empíricos, no
pretendemos asegurar lo inverso: que todos los enunciados obviamente
empíricos (o siquiera todos los enunciados observacionales) sean
"básicos".
El propósito de excluir las negaciones de enunciados básicos (o las
negaciones de casi todos los enunciados básicos) de la clase de éstos,
y de excluir de la misma las disyunciones y condicionales de enunciados
básicos es el siguiente: no queremos admitir enunciados condicionales
tales como "si hay un cuervo en esta sala, entonces es negro" o
"si hay un mosquito en esta sala, entonces es un anopheles". Se trata,
sin duda, de enunciados empíricos; pero no tienen el carácter de enunciados
testables de teorías, sino más bien el de enunciados de ejem.
plificación, por lo cual son menos interesantes y menos "básicos" desde
el punto de vista de la teoría del conocimiento aquí expuesta. En
efecto, esta teoría del conocimiento sostiene que la base empírica de
todas las teorías son los tests o, en otras palabras, los intentos de refutación.
Quizás valga la pena mencionar en este contexto que la palabra "básico"
de la expresión "enunciado básico" parece haber confundido a
algunos de mis lectores. El uso que hago de este término tiene la
siguiente historia. Antes de usar los términos "básico" y "enunciados
básicos", usé la expresión "base empírica", por la cual entendía la clase
de todos los enunciados que pueden funcionar como tests de teorías
empíricas (esto es, como refutadores potenciales). Al introducir la
expresión "base empírica" mi intención era, en parte, dar un énfasis
irónico a mi tesis de que la base empírica de nuestras teorías está
lejos de ser firme; que se la debe comparar con una marisma y no
con suelo sólido.^
Los empiristas creían por lo común que la base empírica consistía
en percepciones u observaciones absolutamente "dadas", en "datos", y
que cr;i posible construir la ciencia sobre estos datos como sobre una
roca. En oposición a esta doctrina, señalé que los "datos" aparentes
de la txpeiiencia son siempre interpretaciones a la luz de teorías, por
lo cual tienen el carácter hipotético o conjetural de todas las teorías.
La tesis de que esas experiencias que llamamos "percepciones" son
interpretaciones —de la situación total en la cual nos encontramos cuando
"estamos percibiendo", según sugiero— se debe a una visión de
Kant. Se la ha formulado a menudo, un poco toscamente, diciendo
que las percepciones son interpretaciones de lo que nos ofrecen nuestros
sentidos; y de esta formulación surge la creencia de que debe haber
algunos "datos" últimos, algún material i'iltimo que no debe ser
interpretado (puesto que la interpretación lo es de algo, por lo cual
2 Véase especialmente el último párrafo de la sección 30 de mi L.ScJ).
461
no puede haber un regreso infinito). Pero este argumento no toma
en cuenta el hecho de que el proceso de interpretación (como ya sugería
Kant) es, al menos en parte, fisiológico, de modo que nunca experimentamos
datos no interpretados: la existencia de tales "datos" no
interpretados es, por lo tanto, una teoría, no un hecho de la experiencia
y menos aún un hecho último o "básico".
Así, pues, no hay base empírica no interpretada, y los enunciados
de tests que constituyen la base empírica no pueden ser enunciados que
expresen "datos" no interpretados (puesto que tales datos no existen),
sino simplemente enunciados que expresan hechos simples observables
de nuestro medio físico. Por supuesto, son hechos interpretados a la
luz de teorías; están empapados de teoría, por decirlo así.
Como señalé en mi Lógica de la investigación científica (final de
la sección 25), el enunciado "aquí hay un vaso de agua" no puede
ser verificado por ninguna experiencia observacional. La razón de ello
es que los términos universales que aparecen en este enunciado ("vaso",
"agua") son disposicionales: "denotan cuerpos lisíeos que manifiestan
una conducta sujeta a leyes".^
Lo que hemos dicho acerca de "vaso" y "agua" es válido para todos
los universales descriptivos. El famoso gato en el felpudo tan caro a
los empiristas (yo también quiero mucho a los gatos) es una entidad
aún más teórica que el vaso o el agua. Todos los términos son teóricos,
aunque algunos son más teóricos que otros ("rompible" es más
teórico o más disposicional que "roto", pero también éste es teórico o
disposicional, como dijimos, por ejemplo, al final del capítulo 3.)
Esta manera de concebir la cuestión nos permite incluir en nuestra
"base empírica" enunciados que contengan términos muy teóricos, siempre
que sean enunciados singulares acerca de hechos observables; por
ejemplo, enunciados como "aquí hay un potenciómetro que marca
145" o "este reloj da las 3 y 30". No se puede establecer o verificar
de manera definitiva que el instrumento es realmente un potenciómetro,
como no se puede verificar de igual modo que el vaso que está
ante nosotros contiene agua. Pero es una hipótesis testable, y podemos
testarla fácilmente en cualquier laboratorio de física.
Así, todo enunciado (o "enunciado básico") es esencialmente conjetural;
pero es una conjetura que puede ser testada fácilmente. Estos
tests, a su vez, suponen nuevos enunciados conjeturables y testables
y así ad infinitum; y si tratáramos de establecer algo con nuestros tests,
caeríamos en un regreso infinito. Pero, como expliqué en mi Lógica
de la investigación científica (especialmente en la sección 29), no
establecemos nada mediante este procedimiento: no deseamos "justificar"
la "aceptación" de nada, sino sólo testar críticamente nuestra
teoría, para ver si podemos o no argumentar contra ella.
Por consiguiente, nuestros "enunciados básicos" no tienen nada de
3 LSc-D; sección 25, pág. 95 (ed ingl.; nuevo apéndice X, (1) a (4), págs.
422-6. Véase también, por ejemplo, los caps. 1 (secciones IV y V) y 3 (sección VI.
últimos 6 párrafos) de este volumen.
462
"básicos" en el sentido de "finales"; sólo son "básicos" en el sentido
de que pertenecen a la clase de enunciados que usamos para testar
nuestras teorías.
2. La probabilidad y la severidad de los tests
Es posible comparar objetivamente la severidad de nuestros tests;
y si queremos, podemos definir una medida de su severidad.
En esta definición y en posteriores discusiones de este apcndice,
usaré la idea de probabilidad en el sentido del cálculo de probabilidades;
o, más precisamente, usaré la idea de probabilidad relativa,
P {x^ y) '
que se lee "la probabilidad de x dado y". La idea de probabilidad
absoluta,
que se lee "la probabilidad absoluta de x", será definida aquí en términos
de la probabilidad relativa, mediante la definición- explícita
D (AP) p{a) = p {a, b) ^ (c) (((d) (p (c, d) ^ p {d, c))) _>
-^p {a, b)=-p (a, €)).
<-» significa "si y sólo si"; y "... ±*" significa " s i . . . entonces"
(luego también usaremos "&" en lugar de "y"). Para interpretar D (AP)
establece que p (a) = p (a, b), a condición de que b tenga la probabilidad
(relativa) máxima.
La idea de probabilidad relativa, p (x,y), será usada principalmente
como definiens, como en D (AP). A sii vez, puede ser definida implícitamente
a través de un sistema axiomático, como en mi L. Se. D.
(nuevos apéndices ' IV y *V). Los seis 3xiomas dados allí pueden reducirse
a tres, uno de ellos. A, un axioma existencia!, y dos axiomas,
B y C, en la forma de definiciones ("creadoras" *) :
A (Ea) (Eb) p (a, b) + p (b, b)
esto es, hay al menos dos probabilidades diferentes.
B {{d) p (ab.d) =p (c,d) * - » (e) if) p {a,b)
^p (c,b) kp {a.e) ^p (ce) ^p (b,c) & ((p {b,e)
^p {f,e) Sep (h,f) ^p (f,f) ^p {e,f)) ^
p {a,f) p {b,e) =p ice)))
El axioma B define el producto ab (que se lee "a y b") en términos
de p (x,y).
C p {-a,b) =p ib,b) -p (a,b) * - ^ (Ec) p (b,b) ^p (c,b)
El axioma C define el complemento —a (que se lee "no a") en términos
de p (x,y).
* Se encontrará una discusión de las definiciones "creadoras" y "no creadoras",
por ejemplo, en P. Suppes, Introduction to Logic, 1%7, pág. 153, y también en mi artículo
"Creative and Non-Creative Definitions in the Calculus of Probability", Synthese,
15, 1963, N» 2, pág. 167 y sigs.
463
A esos tres axiomas podemos agregarles tres definiciones (no creadoras,
u ordinarias): de probabilidad absoluta, p (a) definida antes
por D (AP); de la identidad booleana, o = fc; y de independencia de
n términos relativa a b.
La identidad se define del siguiente modo:
D (=) a=ib<^ (c) p (a, c) z=p {b, c).
Decimos que un conjunto de n elementos o una sucesión de n
términos. A», = ai a. es "independiente en n términos (relativa
a b)" si el llamado "teorema especial de la multiplicación" (relativo
a fe) se aplica a todos los 2° — I subconjuntos no vacíos del conjunto
A.. Sean a,, . . . , a„, los elementos de cualquier subconjunto (o subsucesión);
entonces, si Au es n-independiente, tenemos
(m) p {ai... a„, b) = p (a^, b). p (a,+i, b)... p (a„, b)
donde el lado derecho es un producto de »t — i probabilidades. Entre
estas 2" — 1 ecuaciones, correspondientes a los 2* — 1 subconjuntos
no vacíos de ¿4», habrá n casos triviales (los de subconjuntos unidad),
puesto que para m •=. i, nuestra ecuación (m) degenera en
('•) P (li, b) =p (fli, fe);
es decir, todo elemento único tiene, trivialmente, una independencia
de 1 término relativa a cada 6. Así, la w-independencia de Am queda
definida por 2° — n — 1 ecuaciones no triviales.^
Es posible simplificar esta definición un tanto engorrosa, que utiliza
2" — n — 1 ecuaciones, introduciendo una definición recuniva de
"Indp„ (Ja, . . ., aj ; b)", que se lee: "a¡, . . . (i„ son w-independientes con
respecto a 6":
Considero, con este objeto, un conjunto S de elementos, a^íS, bíS,
etcétera; uso la siguiente notación: escribo "{a^, ...,a„\" para denotar
el subconjunto de S que tiene como elementos a^,...,a„; y escribo
"{«1, ..., a„j — \aX' para denotar el mismo subconjunto con la exclusión
del elemento a¡. Definiré a continuación la «-independencia en
relación a b así.
D {Ind) (1) Ind^ (i«i!; b) para cada a^, y fe en S.
(2) Ind„^^{\a^, ...,a„^J; fe) si y sólo si
(a) Ind„ (jai, ...,a„+J — \a¡\; fe) para cada i, \^i:^n+\
(b) p (tti ... a„^^, b) = p (Oj ... fl„ fe) p (a„+i, fe).
Existen varios conceptos relacionados. Uno de los más débiles es el
de independencia serial, Sind^ {a^,...,a„; fe). La definición coincide
5 Cf. por ejemplo W. Feller, An Introduction to Probability Theory and tls
Applications, vol. I. 2» ed., 1957, pág. 117. Digamos de paso que podemos identificar
el subconjunto vacio con el conjunto unidad cuyo elemento es -(a. -a) , puesto que
este elemento es (con respecto a cualquier b) absolutamente independiente, es decir,
independiente con respecto a cualquier conjunto A^. Obtenemos, asi, 2n ecuaciones,
n-f-l de las cuales se refieren a clases unidad y son triviales.
464
con la de Ind„, exceptuando que pueden omitirse los paréntesis |
y reemplazar (2) (a) por la fórmula
Sind„ {a^, ..., a„; b).
Ahora podemos volver a la definición de severidad de los tests.
Sea // la hipótesis que se quiere testar; sea e el enunciado de test
(el elemento de juicio) y b el "conocimiento básico", es decir, todo
lo que aceptamos (tentativamente) como indudable mientras testamos
la teoría, (h también puede contener enunciados acerca del carácter
de las condiciones iniciales). Supongamos, para comenzar, que e es una
consecuencia lógica de ¡i y de b (luego daremos menos fuerza a esta
suposición), de modo que p (e, hb) = 1. Por ejemplo, c puede ser
el enunciado de una posición predicha del planeta Marte derivado de
la teoría de Newton /; y de nuestro conocimiento de las posiciones,
qu'e forma parte de h.
Podemos decir, entoncc^, (jiic si lomamos a e como un test de h,
la severidad de este test, imerpretado como elemento de juicio favorable,
será tanto mayor cuanto menos probable es e, dado b solamente
(sin h); vale decir, cuanto menor es p (c, b), la probabilidad de e
dado b.
Hay, fundamentalmente, dos métodos * para definir la severidad
•S" {e, b)
del test e, dado b. Ambos parten de la medida del contenido, Ct. El
primero toma el complemento de la probabilidad como medida del
contenido Ct:
(1) Ct (a) =^l—p (a);
el segundo toma el recíproco de la probabilidad como medida del
contenido:
(2) Ct' (a)=l/p{a).
El primero .sugiere una definición como S (e, fo) = 1 —p (e, b) o, mejor
aún,
(3) Sie,b) = il-p{e,b)) / (l+pie.b)),
es decir sugiere que midamos la severidad del test por Ct o, mejor
fiún, por algo así como un Ct "normalizado" (usando 1/ (1 -\- p {e,b))
como factor de normalización). El segundo sugiere que midamos la
severidad del test simplemente por su contenido Ct':
(4) S' {e, b) = Ct' (e, b) = I / p (e, b).
Podemos luego generalizar estas definiciones atenuando el requisito
de que e se desprenda lógicamente de h y b, o hasta el requisito más
débil de que
p (e,hb) =.1.
6 Véase L.Sc.D., nota 2 de la sección 83 (pág. 270, ed. ingl.).
465
En su reemplazo, supondremos ahora que hay cierta probabilidad,
p {e,hb), que puede o no ser ^ual a 1.
Esto sugiere que con el fin de obtener una generalización de (3)
y (4), sustituyamos en ambas fórmulas el término más general
"p {e,hb)" en lugar de "1". Llegamos así a las siguientes definiciones
generalizadas de la severidad del test e interpretado como elemento
de juicio en apoyo de la teoría h, dado el conocimiento básico de b.
(5) S le, h, h) :=(p (e. hb) —p (e,b)) / (p (e. hb) + p {e. b))
(6) S' {e, h, b) = p (e, hb) /p {e, b)
Estas son nuestras medidas de la severidad de los tests, como elementos
de juicio favorables. Hay poco que elegir entre ellas, puesto
que la transición de una a otra conserva el orden ^; es decir, las dos
son topológicamente invariantes. (Lo mismo es válido si reemplazamos
las medidas Ct' y S' por sus logaritmos* —por ejemplo, por log2Cí" y
por logos'— con el propósito de hacer aditivas estas medidas.)
Después de definir una medida para la severidad de nuestros tests,
podemos usar ahora el mismo método para definir el poder explicativo
de la teoría h, E{h,e,b) (y si queremos, de manera algo similar, el
grado de corroboración' de h) con respecto a e, en presencia de d:
(7) E (h, e,b) =:S (e, h, b).
(8) £' (/í, e, h) — S' (e, h, b)
Estas definiciones indican que el poder explicativo de una teoría
h (con respecto a un exphcandum e) es tanto mayor cuanto más severo
es e, si se lo toma como test de la teoría h.
Se puede demostrar ahora muy fácilmente que el grado máximo de
poder explicativo de una teoría, o de la severidad de sus tests, depende
del contenido (informativo o empírico) de la teoría.
Por consiguiente, nuestro criterio ele progreso o de desarrollo potencial
del conocimiento será el aumento del contenido informativo,
o del contenido empírico, de nuestras teorías; y al mismo tiempo,
el aumento de su testabilidad, y también de su poder explicativo
con respecto a los elementos de juicio (conocidos )' todavía desconocidos).
3. Verosimilitud
En esta sección examinaremos y desarrollaremos las ideas de las
sen iones x y xi del capítulo 10 (que se supone leído).
En la teoría de la verdad de Tarski la "verdad" es una propiedad
de enunciados. Supondremos que "T" denota la clase de todos los
' \tase L.SC.D., pág. 404.
s (
" Mcm, págs. 400-2.
466
enunciados verdaderos de un lenguaje más o menos artificial (lenguaje
objeto; ver la sección 5). Y expresaremos mediante
azT
la afirmación (de algún metalenguaje) de que el enunciado a es un
miembro de la clase de los enunciados verdaderos; en otras palabras,
que a es verdadero.
Nuestra primera tarea será definir la idea del contenido de verdad
de un enunciado a, denotado por "Ct^ (a)". Será definido de tal mañera
que tendrán un contenido de verdad tanto un enunciado falso
como uno verdadero.
Si a es verdadero, entonces CÍT (a), el contenido de verdad de a
(o, más bien, su medida), será simplemente la medida del contenido
de a; esto es:
(1) azT-^ CÍT (a) = Ct (a),
donde podemos poner, como en la sección 2, (1)
(2) Ct(a) =l~p{a).
Si a es falso, también puede tener un contenido de verdad, como
dijimos. Pues supongamos que hoy es lunes; en tal caso, el enunciado
"hoy es martes" será falso. Pero este enunciado falso implicará
una serie de enunciados verdaderos, tales como "hoy no es miércoles"
u "hoy es lunes o martes"; y la clase de todos los enunciados verdaderos
que implica será su contenido de verdad (lógico). En otras
palabras, el hecho de que todo enunciado falso implique una clase
de enunciados verdaderos es la base para asignar un '•'^ntenido de
verdad a todo enunciado falso.
Por lo tanto definiremos el contenido de verdad (lógico) del enunciado
a como la clase de los enunciados que pertenecen al contenido
(lógico) de a y de T; e interpretaremos la medida de su contenido
de verdad, Cf-j (a), en consonancia con lo anterior.
Para el propósito de dar una definición de la idea de CÍT (a) dentro
de la teoría de Ct o áe p (donde Ct{a) = 1 — p (a)), disponemos
de varios métodos. El método más simple es, quizás, convenir que en
expresiones como p{a) o p {a,b), las letras "a", "b", etc., pueden ser
no solamente nombres de enunciados (y así, por ejemplo, de conjunciones
de un número finito de enunciados), sino también nombres de
clases de enunciados (o de conjunciones finitas o infinitas de todos
los enunciados que son miembros de' estas clases). Convenimos, entonces,
en usar el símbolo "í" ^' en lugar de "T" en contextos como
p{t), p (a,t) o p {t,b), y operar con i exactamente como si fuera la
10 Obsérvese que "I" no se usa por "tautología", para la cual introduciremos
luego el símbolo "tautol". (Puesto que 7" puede ser no axiomatizable, podría decirse
que esta manera de usar "t" equivale a interpretar a, b,..., t,... como sistemas
deductivos (y no como enunciados) ; ver TarAi, Logic, Semantics, Metamathematics,
págs, 342 y sigs., y la referencia a S. Mazurkiewicz de la pág. 383.)
467
conjunción (finita o infinita) de todos los enunciados verdaderos del
sistema lingüístico (o sistema de enunciados) en consideración. Dicho
de otra manera usamos el símbolo "p" como uno de los valores constantes
que pueden adoptar las variables "a", "b", etc., y convenimos
en usarlo de tal manera que
(S) La clase de consecuencia o contenido lógico de t sea T.
Definiremos ahora un nuevo símbolo, "ai.", de la siguiente manera:
(4) Oj. = a v í
Ck)mo resultado de la anterior definición, tenemos (usando "[_"
en lugar de "implica" o "de... se desprende..."):
(5) a í- ÜT
y, por lo tanto, también:
(6) p (aor) —p (a),
(7) p {a. Or) // (flr) = p (aar) = p (a).
También tenemos:
(8) fly t- X si, y sólo si, a i- X kxtT,
donde "a \~ b" significa nuevamente "b es deducible de (o implicado
por) a". Asi (8) significa que ÜT es el enunciado (o sistema deductivo)
verdadero lógicamente más fuerte implicado por a. Así, podemos
ahora definir el contenido de verdad de a como el contenido de
ttr, y podemos definir ahora su medida, Ctj{a), de la siguiente manera:
(9) Ctr (a) = Ct (a,.) = 1 — p (oy).
Se desprende de (9) y (5) que
(10) Ctj, (a) ^ Ct (a)
y
(11) Si atT, entonces % = a, y Gíy (a) = Cí (a).
Con el fin de definir " Vs (a)" —esto es, (una medida de) la verosimilitud
de a— no sólo necesitamos el contenido de verdad de
a, sino también su contenido de falsedad o una medida de él,
puesto que deseamos definir Vs(a) como algo semejante a la diferencia
entre el contenido de verdad y el contenido de falsedad de a.
Pero la definición de un contenido de falsedad o de algo similar no
es muy simple, debido principalmente al hecho de que, si bien
puede decirse que T constituye una clase de consecuencias o un
contenido (el contenido de t, ver (3) antes), la clase F de todos
los enunciados falsos ele nuestro sistema no es una clase de consecuencias.
Pues mientras que T contiene todas las consecuencias
468
lógicas de T —puesto que la consecuencia Íctica de algo verdadero
debe ser también verdadera—, F no contiene todas sus
consecuencias lógicas: de un enunciado verdadero sólo se deducen
enunciados verdaderos, pero de un enunciado falso no sólo se deducen
enunciados falsos sino también enunciados verdaderos.
Como resultado de lo anterior, no parece factible lograr una
definición de "contenido de falsedad" análoga a la de "contenido
de verdad".
Con el fin de llegar a una definición satisfactoria de Ct^ (a),
la medida del contenido de falsedad de a, será útil estipular una
Dostları ilə paylaş: |