25 abril 2019

Sin errores: el ideal del hombre-máquina

 



Sin errores: el ideal del hombre-máquina

 

María Teresa Glez. Cortés

Escuela Hispánica de Estudios Literarios

 


Introducción

 

Es una enfermedad haber dejado de ser empírico.
Michel Onfray (2015), Cosmos, una ontología materialista.

 


Una de las causas que fomenta la crisis cultural en Occidente arranca de la creencia, bastante generalizada, de que el conocimiento no precisa justificar la verdad. Esta rareza ha permitido la reducción de los sistemas de control en los estudios de humanidades y no pocas veces la desaparición de los criterios de supervisión, corrección y refutación. Por otro lado, el auge de la posmodernidad ha acentuado el declive de las humanidades, pues esta corriente, que lo critica todo y sin excepción, sueña con retornar al momento exacto del punto cero de la civilización.

Lejos del interés y deseo de invertir tiempo en la comprobación de las teorías, muchos profesores reclaman para sí la verdad de sus hipótesis y desde el imperativo de tener la razón. Incluso llegan a transmitir a sus alumnos, ¡viva la utopía!, cualquier cosa por verdad. De este modo, las labores de investigación son sustituidas por la producción de teorías vistosas, epatantes… que juegan con pseudoacontecimientos o, si se quiere, con la extravagancia de bucear en una objetividad sin objetos. Un ejemplo lo tenemos en Sade, Fourier, Lozoya, una obrita en la que Roland Barthes confiesa: «a mí me seduce el sujeto del discurso, no el sujeto de la realidad», mientras que en La cámara lúcida Barthes reconoce que «mis historias son una forma de cerrar los ojos».

Con un enfoque así, aparece un inconveniente que percibió Platón (427-347 a. C.) ya en el diálogo Sofista: nunca accederemos al conocimiento de la mano de «quien, suprimiendo la ciencia, el pensamiento y el intelecto, pretende afirmar algo sea como fuere», decía aquel. Y peor. Entre referencias improbables, faltos de experiencias y carentes de una metodología fiable, estamos cerca de caer en el vacío que describió Louis Althusser: «mi universo de pensamiento está abolido. Ya no puedo pensar».

Y no solo eso. Hay personas que por estar inmersas en rutinas especulativas repudian el componente fáctico de la información y proponen, como hizo Heidegger, ir en busca del ser ultraoriginario y «previo» a todas las descripciones dadas. Y hay individuos dentro del mundo de la ciencia que se dedican, lejos de la táctica de ensayo y error de los primeros homínidos, a reforzar teorías falsas con resultados que valen nada, tal es el caso de Scott Reuben. Y también hay antiintelectuales que se preocupan por «el qué» de las cosas en contra de la viabilidad y consecuencias de sus conjeturas. Ante estas incongruencias qué hubiesen dicho, me pregunto, Tales de Mileto, Demócrito, Aristarco de Samos y otros fundadores de la filosofía y la ciencia.

A lo largo de estas páginas propondré reflexiones algo incómodas acerca de esos ideales del conocimiento que se fundan en el mito «cero-error». Lo recalco, pues con la moda de neutralizar al sujeto que piensa y su efecto, el rechazo a aquello que no encaja en lo que defendemos, va a resultar complicado hacer entender estas páginas, sobre todo si los humanistas, los filósofos y demás trabajadores de las ideas no desean entender porque su perspectiva intelectual y, por qué no decirlo abiertamente, su posición social y económica dependen de no entenderlo

 

 

1

Hambres de infinitud

 

La fantasía acerca a los sentidos lo eterno […]. Yo siento que es mi patria también el éter, el fervor, el brillo que os baña.

Hegel (1796), Eleusis.

 

 

La crítica al conocimiento «sin límites» es el tema que nos ocupa. Y lo digo a las claras tras observar cuán habitual es en el ámbito de las humanidades jugar con teorías que apelan a su carácter científico sin necesidad de aportar pruebas ni ofrecer un canon que esté definido por unos criterios metodológicos determinados. La cosa no es de ahora, viene de siglos atrás. Kant, p. e., inspirado por la física de Newton, intentó convertir la ética en ciencia pura. Fourier, al igual que Kant, consideró que sus análisis sociales eran válidos porque continuaban el patrón newtoniano. Comte, que se tomaba por científico acreditado, elaboraría su filosofía, entusiasmado por las posibilidades que según él proporcionaban los dictados de la razón científica. Marx en su sociología universal de la política utilizó el paradigma de la biología de Darwin como argumento de autoridad. ¿Y qué hay de sus adeptos, los marxistas? Estos, incluso a día de hoy, proclaman conocer en nombre de la ciencia los mecanismos que mueven el reloj de la Historia.

Podríamos poner otros ejemplos de cómo fascinan y levantan simpatías, dentro y fuera del teatro académico, esos intelectuales que afirman poseer respuestas ciertas por el solo hecho de mentar el término «ciencia». A día de hoy, p. e., hay sociólogos y grupos feministas que se enrocan en una visión «genetista» de la sociedad para exigir la infalibilidad de sus teorías y sortear los sistemas de control; y hay pedagogos que manipulan enfoques de neurología con la finalidad de «perpetuar» en las aulas sistemas didácticos fraudulentos, mientras escuelas de historiadores dicen beber de las fuentes de la economía ‘científica’ y ello con el propósito de asignar niveles «indiscutibles» de certeza a sus análisis.

El inconveniente de esta conducta radica en creer obtener un conocimiento cartesiano «100% riguroso» cuando simplemente lo que domina es ser ‘fiel’ a una teoría que un grupo de humanistas ha elaborado acríticamente desde el culto a la palabra y para sujeción de la colectividad. De ahí que todos ellos, pedagogos ‘neurólogos’, sociólogos ‘biólogos’ e historiadores ‘científicos’ acentúen los aciertos de sus enunciados. Y por pretender independizarse de la veritas como verdad justificada rechazan los beneficios que tienen los filtros metodológicos (inquisitivos, empíricos y lógicos) de revisión de teorías.

Y no solo eso. Tras colocar por encima del conocimiento la defensa y la aprobación de sus hipótesis, estos humanistas dan completo crédito a su modelo interpretativo. Y se comportan programáticamente igual que los teólogos de tiempos pasados. ¿Cómo? Presentando sus conjeturas en clave imperativa y como traducción exacta de lo que acontece en el mundo.

Y así pasa lo que pasa: que, sin criterios de supervisión, corrección y refutación, los cientificistas viven en un estado de impunidad-inmunidad y piensan que están libres de error. Y de control. Por cierto, esa misma ansia despótica de verdades irrefutables, esa misma inerrancia está presente en los estudios de humanidades que siguen la senda posmoderna. No se olvide que la posmodernidad, como vuelta al no ser, se funda en la fe mágica del renacer humano a partir de las ruinas del mundo actual. Y en tanto movimiento mileranista la posmodernidad llama a la liberación desde la destrucción. Por esta causa, los posmodernos «niegan» dogmáticamente todas las virtudes de la episteme contemporánea mientras «afirman» con el mismo dogmatismo la falta, en Occidente, de coherencia o de «hilos», que es lo que significa «nihilismo».

Se alza, entonces, una doble infalibilidad que con idéntico exceso de confianza golpea peligrosamente las paredes del conocimiento. Una infalibilidad, la cientificista, que es hiperconservadora y para cuyos valedores los enunciados carecen de límites, después de asignarles un estatus de evidencias inamovibles. Otra infalibilidad, de origen nihilista y de corte revolucionario, que en nombre de la inopia primitiva se impone la tarea de salvarnos de las mazmorras de la cultura occidental, de redimirnos de los garrotes de la objetividad. En ambos casos no existe, aseguran, más verdad que la suya.

Pero hay otro detalle a tener en cuenta. Cientificistas y posmodernos quieren convencernos de que tienen siempre razón. Y entre atajos y más atajos liberticidas, qué falta de originalidad, repiten los dogmas de los estoicos (ss. IV a. C-III d.C.). Recordemos que para estos físicos de la Antigüedad la objetividad era el supremo regulador de la realidad que, además de nunca envejecer, jamás dependía de los criterios humanos de racionalidad. Pues bien, posmodernos y cientificistas niegan, ¿sorprende?, la objetividad humana. Y al hacerlo sitúan los fundamentos del conocimiento en los arcanos de la ahistoria acogiéndose, como hicieron los estoicos, a la trascendencia o supratemporalidad de sus declaraciones, es decir, a la imposibilidad de someter sus teorías a control.

Ítem más. Al tratar de persuadirnos de que han encontrado el rostro inalterable de la ‘verdad’, cientificistas y posmodernos se erigen en profetas de lo predecible. Y al emplear certezas ‘atópicas’ e ‘intemporales’ simplifican hasta el esperpento el conocimiento de las cosas y, peor, desprecian los desaciertos de juicio y de percepción que mostramos en bastantes ocasiones.

Canonizado el canon, y no habiendo conceptos que dependan de ningún sujeto real, la irresponsabilidad aparece enaltecida. El filósofo escéptico Sexto Empírico ya razonaba en contra de estas extralimitaciones. Conviene conocer su opinión. Afirmaba Sexto Empírico que «si oponemos argumentos contra las apariencias, no lo hacemos deseando abolirlas, sino para mostrar la precipitación de los dogmáticos: pues si la razón es de tal modo engañosa que casi burla las apariencias que están ante nuestros ojos, ¿hasta qué punto no será preciso considerarla con suspicacia en el caso de los objetos no evidentes, a fin de no extraviarnos siguiéndola?» (Sexto Empírico c. 100 d. C.: lib. I 20).

Ergo, no se puede reivindicar la figura arcaica del tirano filósofo (o humanista) que pide, frente a los demás, permanecer fuera de control. Por otra parte, «mejor estar vagamente en lo cierto que exactamente equivocados» (Vidmaayer, 2015: XI). Es decir, de las palabras de Carveth Read, atribuidas por error a J. M. Keynes, deduzco que mantener unas dosis de desconfianza hacia los demás y, claro está, hacia uno mismo resulta necesario, ya que el dogmatismo anda lejos de ser la solución, sobre todo cuando lo que hace interesante al ser humano es su flexibilidad, es su resiliencia, su capacidad adaptativa para detectar fallos y asimilar datos empíricos, inclusive los que impugnan nuestros estudios.

 

 

2

La utopía del conocimiento absoluto

 

Los que exaltan tanto la incorruptibilidad, la inalterabilidad, etc. […] merecerían encontrarse con una cabeza de Medusa que los transmutase en estatuas de jaspe o de diamante para hacerlos más perfectos de lo que son.

Galileo Galilei (1632), Diálogo, jornada I.

 

Los idealismos son siempre utopías encubiertas. Y por ser metáforas de lo absoluto suelen provocar a su paso fuertes dosis de antiintelectualismo. De hecho, en el momento en que excluyen cualquier objeción, los idealismos solo necesitan reafirmarse, autoconfirmarse y emplear juicios de valor que apelan a una comunidad de seres humanos maquinalmente hermanados en una armonía que es impuesta por los controladores que no quieren ver controladas sus teorías.

En esta tesitura, ¿cómo salir del culto a unas narraciones que, se predican, están fuera del mundo y por encima de una casuística humana? Lo pregunto porque toda historia tiene su historia. Y no hay contenido sin continente. Y jamás pensamos sin un aquí y ahora, es decir, sin ponentes, oponentes ni componentes, sin conceptos particulares o fuera de circunstancias y relaciones singulares. Y, por otro lado, ¿cómo dar crédito a unas teorías que repudian el canon de los criterios académicos y que a la vez quieren ser el supracanon de la humanidad del presente-futuro?

Flaco favor se nos hace cuando maestros (y adeptos) de la utopía emplean operatoriamente categorías «blanco y negro» y matando la realidad reducen, vía realicidio, los pensamientos a una sucesión de inercias y tics. Y, frente a esos humanistas que justifican la necesidad de reflexionar sobre lo absoluto y desde el absoluto, opino que eso genera hambres totalitarias; que lo extremo por incontinente arrostra el sello de una ciencia despótica; que un pathos especulativo ilimitado conlleva tiranías; que nada (en) cierra el campo de visión, nada obstaculiza y violenta más la facultad de pensar que crear mapamundis desde la pretensión inalterable de tener toda la verdad de la verdad total.

Digámoslo claramente. Las cosas adquieren sentido porque, verdad de Perogrullo, fruto de nuestra relación (o falta de relación) con ellas, antes no lo tenían. Y si creemos que algo deja de tener razón de ser o sentido, volvemos no sin ciertas dificultades a humanizar con otro significado esa parte del mundo que nos ha causado preocupación o extrañeza. Quizás, en este trajinar se encuentre la fuente de las intrahistorias filosófico-científicas.

Además, ¿que lo impensable es lo que no se puede pensar? Hasta aquí hemos llegado y se acabó el asunto. Pero si lo ininteligible es aquello que no ha sido considerado con anterioridad, entonces ante nosotros se abre la posibilidad maravillosa de (re) conocer el medio circundante y disipar las incógnitas que rodean a los «enigmas», pues eso es lo que expresa la palabra «problema», amén de que no hay conocimiento que no venga acompañado de problemas particulares, envuelto en circunstancias específicas o rodeado de interrogantes concretos.

Sí, en torno al esfuerzo por desvanecer algunas nubes de oscuridad gira la aventura del saber. Y en relación con el mito solar de Platón (y su idea luminífera de un mundo sin penumbras) colijo que resulta poco viable edificar un conocimiento a partir de (la utopía de) la transparencia absoluta. Al fin y a la postre, mientras solucionamos un misterio emergen otros en el horizonte, igual que bajo el sol proyectamos sombras al caminar.

 

 

3

La totalidad es inhumana

 

La totalidad acaba, en cierto modo, por revelarse como un «fetiche», fetiche que sirve para que unas decisiones «arbitrarias» puedan aparentar que son conocimientos objetivos.

Hans Albert (1961), El mito de la razón.

 

Alejado de lo incondicional, Salvador E. Luria desmitificó la vida del investigador. Y este microbiólogo italiano certifica que «de los tres grandes descubrimientos que hice en mi vida, llegué al primero por una iluminación intelectual, al otro tras una genuina búsqueda metódica en el laboratorio, al tercero por puro azar. Luego, si los científicos fuéramos honestos con nosotros mismos tendríamos que admitir que en la base de nuestros descubrimientos existe un elemento lúdico, una imaginación liberada, una obcecación para sobreponerse a todos los fracasos» (Sols,1987: 33).

La sinceridad de Luria ofrece pistas interesantes: que conocer no equivale a estar minuciosamente al tanto de todo ya que dicha ocupación, ciclópea, es a todas luces imposible; y que conocer no consiste en carecer de limitaciones, pues, y expongo este dato como ejemplo, solo para procesar la información de las casi 100.000 fijaciones visuales que realizan nuestros ojos al día necesitaríamos un cerebro del tamaño de un año luz cúbico. No me atrevo a comentar qué volumen tendría ese cerebro gigantesco si además procesara las sensaciones auditivas, táctiles, gustativas, psicomotrices… de cada día.

Dependemos de entornos concretos para (sobre) vivir y razonar y, no obstante, dedicamos buena parte de nuestra energía intelectual a fijar absolutos hasta defender el relato antes que el dato y anteponer una teoría a las evidencias. Sin embargo, jamás percibiremos la enormidad polifacética y multifactorial del Universo. Y nunca aprehenderemos el todo. De hecho, nuestros órganos no están preparados para alcanzar / confirmar la totalidad de la verdad. En cambio, sí poseemos el don de contemplar -«contemplar» significa etimológicamente acotar, separar una parte de algo- aspectos precisos y concretos de la realidad.

De donde se deduce que caminamos entre las lindes de lo conocido y de lo que resta por descubrir. Y lo que sabemos, que es poco, junto a lo que desconocemos, que es mucho, es un muro de garantía, afortunadamente, para frenar los desmanes del dogmatismo. Es más, en la medida en que el conocimiento se basa en los lazos dialécticos entre lo que busco entender, lo que estudio, discuto... y lo que desconozco y no llego a aprender o ni siquiera entiendo, carece de sentido decidir el valor veritativo de una teoría por el gesto «totalizante» de amurallar mi equilibrio personal en la necesidad de tener certezas «absolutas».

Un inciso. En La felicidad de los pececillos (2007) nos contaba el sinólogo belga Pierre Ryckman alias Leys Simon la conversación que mantuvieron dos filósofos. Durante un paseo, al más joven se le ocurre lanzar este comentario a su maestro Hui Zi: «Mira cuán felices van los pececillos que se mueven ágiles y libres entre las aguas del río». Y Hui Zi, que era experto en lógica, le responde a su discípulo Zhuang Zi: «Si no eres un pez, ¿de dónde deduces que los peces son felices?» Saco a colación esta anécdota porque, por más empeño que pongan algunos, las teorías no pueden ir más allá de entornos materialmente concretos. Además, por el gesto de admitir, como hizo Hui Zi, la dinámica ‘finita’ del trabajo intelectual tenemos la oportunidad dichosa de volver a evaluar la actividad intelectual, que no es poca cosa.

¿Entonces cuál es el criterio que ha de regir en el conocimiento? «La respuesta es: examinamos críticamente nuestras hipótesis. Las criticamos a fin de poder encontrar errores, en la esperanza de eliminar los errores y así llegar más cerca de la verdad» (Popper, 1984: 62).

 

 

4

El conocimiento necesita las reglas del lógos

 

El hombre es capaz de rectificar sus errores por la discusión y por la experiencia. No solamente por la experiencia; es necesaria la discusión para mostrar cómo debe ser interpretada la experiencia.

John Stuart Mill (1859), Sobre la libertad.

 

Cuando algunos humanistas critican la objetividad y la definen ‘logocéntrica’ con tintes despectivos, lo que hacen ni más ni menos en despreciar los sistemas de control y, por tanto, los criterios de supervisión, corrección y refutación. Ahora bien, si no queremos que los estudios filosóficos, históricos y/o filológicos acaben convertidos en saberes precríticos, esto es, irracionales y oraculares, conviene no pasar por alto que las leyes científicas no son tales porque ellas contengan al modo estoico, o sea, a priori, rasgos de la razón cósmica. Las leyes científicas son válidas porque, antes de alcanzar rango de «ley», han tenido que franquear una serie de filtros: adquirir esqueleto verbal, ser justificadas en la experiencia y/o validadas por el armazón del razonamiento teórico. Y aprobadas por la comunidad científica.

Yendo un poco más lejos, diré que el conocimiento se funda sobre un tipo de narración, abierta y pública, socialmente aceptada por su grado de coherencia lingüística. (La expresión lógico-matemática remite también a la coherencia lingüística.) Esto implica que el conocimiento necesita del discurso para existir y ser divulgado. ¿Extraña que por medio de un logos semánticamente operativo busquemos resolver cuestiones, incluso aquellas que exceden lo lingüístico? No, pues «con la ayuda de las teorías físicas tratamos de encontrar nuestro camino por el laberinto de los hechos observados; ordenar y entender el mundo de nuestras sensaciones» (Einstein & Infeld, 1938: 221).

De forma indefectible precisamos del logos, de las reglas del lenguaje para pensar. Tan necesarias son dichas reglas que, en las relaciones entre literatura y conocimiento, no es factible un conocimiento sin vocabulario o un pensamiento sin enunciados sintácticos coherentes. Por este motivo, y sometido a la legislación lingüística de nuestro entendimiento, el conocimiento es a un tiempo «ratio» y «oratio», racionalidad y expresión verbal.

Y siendo que «los límites de mi lenguaje significan los límites de mi mundo» (Wittgenstein, 1914-1918: 5.6), que no los límites de el mundo, el uso del lenguaje no solo facilita la comunicación de conocimientos; no solo da la opción de discutir los fallos heurísticos e instrumentales que cometemos. El empleo del lenguaje brinda así mismo la ocasión de socializarnos. Y abrirnos a los campos intercomprensivos del conocimiento. Al fin y al cabo, en la búsqueda de la verdad emanamos sociabilidad, igual que necesitamos de los demás bien para corregir errores, nuestros o ajenos, bien para compartir, modificar y/o sustituir paradigmas del conocimiento.

Un último apunte. Leibniz tuvo la nada trivial ocurrencia de idear una sintaxis universal a través de cuyas normas lingüísticas todos y cada uno de nosotros pudiéramos (re) conocer la misma realidad. En su intento maquinal por crear una forma «única» de entender e interpretar el mundo, este autor subestimó las relaciones entre intuición y razón, y pasó por alto que al lenguaje suelen superponerse los actos ilocutivos, esto es, las intenciones, los planes y objetivos personales. Dicho con otras palabras. Leibniz olvidó que son las personas concretas quienes aportan a sus tradiciones y por la senda del lenguaje sus propias (pre) ocupaciones epistemológicas, tanto o más cuanto que «lo que constituye la vida del pensamiento es la interacción de personas con diferentes conocimientos y diferentes puntos de vista. El crecimiento de la razón es un proceso social basado en la existencia de tales diferencias» (Hayek, 1940-1943: 122).

 

 

5

Flujos de desconocimiento, nuevas incertidumbres

 

Los medios masivos aseguran la máxima socialización de la estupidez privada […]. La mala información desplaza a la buena porque la verdad cuesta cada vez más cara.

Régis Debray (1979), El poder intelectual en Francia.

 

Fue Peter F. Drucker el primero en pronosticar en 1959 la emergencia de una nueva capa social constituida por trabajadores de conocimiento. Diez años después este sociólogo volvería a rescatar la misma idea tras registrar el empuje de una ciudadanía que va en pos de las ventajas del conocimiento. ¡Hace más de 500 años se dijo lo mismo a raíz del descubrimiento de la imprenta!

Algunos pueden contraatacar y señalar el signo de desorden que domina en las áreas del conocimiento, vista la confusión que levanta la Babel de las redes sociales. Mas, no preocupa el ruido que provocan los mensajes masivos en los espacios virtuales. Inquietan la rapidez por tener razón y el cerrilismo ideológico asociado al uso colectivo de la información. Por cierto, Jean-Paul Sartre, el gran maestro de las consignas, se declaraba a favor de abandonar cualquier traza de independencia con tal de que pensáramos «en grupo», antes y mejor que «pensar por separado».

Del enredo sartriano concluyo que apoyar sectaria y colectivamente cualquier cosa impide analizar la verdad, amén de que esta no es (más) verdadera porque venga aplaudida por sinnúmero de fieles e-click. Lo apunto porque en el espacio de las humanidades se sigue despreciando el valor empírico de los resultados y la imparcialidad parece esfumarse a partir de la estrategia persuasiva de querer modificar la percepción de los demás. Y, por otro lado, y no es un asunto menor, con la divisa de atraer a millones de personas presentando narraciones impactantes, las revistas de divulgación, las prestigiosas también, se dedican a publicar microrrelatos (de 3 folios de extensión) en donde se subrayan, todavía más, las expectativas de dichas publicaciones.

Con lo cual, los nuevos discursos epistemológicos parecen imitar la táctica retórica de las redes sociales y solo funcionar como «ars loquendi», o sea, como fenómeno gramatical dirigido a llamar, captar y modificar nuestra atención. ¿Entonces? Entonces, sin precauciones ni revisiones crece la probabilidad de ser estafados. Lo digo porque a partir de la regla aleatoria del ‘todo vale’ es posible que acabemos defendiendo el principio pseudodemocrático de la igualdad epistemológica. ¿Pseudodemocrático? Por supuesto. Y es que con la «igualdad» epistemológica nos hundimos en los pozos del «igual da». Y, con el argumento de (la isostenia de) que todos los argumentos tienen la misma fuerza, la desinformación llega a convertirse en la neolengua de la industria cultural, industria que incluye a universidades, editoriales, prensa… Y redes sociales.

 

 

6

Hablemos «claro»

 

¡Intelijencia, dame
el nombre exacto de las cosas!

Juan Ramón Jiménez (1916-1917), Eternidades.

 

Si en el proceso del conocimiento intervienen la búsqueda y justificación de la información, en el acto de socializar y comunicar el conocimiento se exige transitar por las rutas de la claridad lingüística. ¿De la claridad lingüística? No les extrañe que «como aquel Guillermo de Ockham me alce frente al fetichismo teórico de alto contenido especulativo y critique los modos literariamente nocturnos, retóricamente alambicados del intelectual 'filósofo'» (Glez. Cortés, 2016). Y del intelectual «científico». Lo subrayo porque el estilo literario, imprescindible en la elaboración de cualquier relato, forma parte esencial de la actividad cognoscitiva.

Resulta curioso que tendamos a dificultar lo sencillo, a enredar lo complicado y a entorpecer, en definitiva, la comprensión de los mensajes. Con estas estrategias, el arte de hacerse entender ya no existe, pues se opta por matar los bienes que derivan de la comprensión. ¿Cómo no ser afectados por esa «infoxicación» que genera la narración embrollada? ¿Cómo ganar flujos de información si la palabra se utiliza para soportar fardos de confusión, ganar capas de opacidad y conseguir adeptos?

En caso de aceptar la máxima de Jenófanes, muy optimista, por cierto, de que «los hombres, buscando, con el tiempo descubren lo mejor» (Jenófanes, c. ss. VI-V a. C., fr.: 18), no cabe duda de que precisamos de intelectuales (de la talla de Isaac Asimov, Dian Fossey, Margaret Cheney, Stephen J. Gould, Lewis Mumford, etc.) capaces de retirar las polvaredas de oscuridad que levanta la literatura científica ininteligible.

De ahí la importancia de que los filósofos se acerquen a la ciencia y abandonen los cubículos de su verbo narcisista y presuntuoso. De ahí, también, que los científicos -no hay ciencia que no descanse sobre tesis filosóficas- se lancen a un mundo compartido en el que sea (más) fácil entender. Y comunicar. Lo cual exige, por el bien de la comprensión, abandonar estilos literarios que, asentados en lo obscurum per obscurius, nos trasladan a laberintos y galimatías impidiendo la transmisión de conocimientos.

 

 

7

Los sesgos de confirmación

 

Salta a la vista que el nombre de ciencia no reviste ninguna evidencia por sí mismo.

Jean-Claude Milner (1989), Introducción a una ciencia del lenguaje.

 

Desde el siglo XIX el concepto de ideología ha sufrido revisiones. Asociada a la interpretación de la Realidad, de la ideología se predica su inoperancia epistemológica. Y, como la ‘opinión’ en tiempos de Platón, la ‘ideología’ representa hoy la caprichosa inobjetividad del ser humano. Sin embargo, no hay historiador ni científico que carezca de ideología, o literato o filósofo que sean neutrales en todo lo que hacen. ¡Menuda paradoja!

Somos seres humanos. Y la ideología es, como los juicios previos, un elemento esencial de nuestra humanidad y, por tanto, un factor que está presente en la elección y resolución de los problemas. Agréguese a esto que «es imposible que exista un intelectual apartado de los conflictos e intereses de su tiempo, igual que resulta impensable pedir a un científico que solo se ciña, cual eremita en un laboratorio, a los quehaceres científicos. Yo no reclamo al intelectual «átopos», contrafigura del intelectual «comprometido». En mi planteamiento no está el coaccionar a ningún intelectual a que habite fuera de las coordenadas espacio-temporales y sin contacto ni relación con ninguno de los sucesos de su época» (Glez. Cortés, 2016).

Dicho esto, ¿hay forma de conjugar estas afirmaciones con la búsqueda de una verdad no colectivista, no partidista? El quid de la cuestión no radica en si existe relación, que la doy por hecha, entre ideología y ciencia. El problema, gravísimo, radica en tomar la ideología como criterio único al servicio de una verdad autoritaria y fanática, se llame esta ‘posmodernidad’, ‘sociobiología’, ‘lysenkoísmo’… o la Rassenkunde del ‘rosenberguismo’.

Pongamos algún ejemplo. Que las investigaciones de Ignaz Philipp Semmelweis, divulgadas en Etiología, concepto y profilaxis de la fiebre puerperal (1861), tuvieran que esperar el placet de la microbiología y la llegada de Pasteur, Koch, y Lister no sorprende. Lo preocupante fue cómo el hallazgo de Semmelweis fue torpedeado y frontalmente por los mismos médicos bajo el argumento de que las ideas de este doctor húngaro mermaban la autoridad de los galenos austríacos. Semmelweis que había descubierto una de las claves fundamentales de la alta mortalidad materna acabó expulsado del Hospital General de Viena, y, como el otrora Galileo, denunciado por sus propios colegas que, con tal de mantener en pie su paradigma de los miasmas, rechazaban las pruebas de la correlación entre «antisepsis» y «limpieza».

Nadie nos libra en algún momento de cumplir al pie de la letra los requisitos de ese «arancel de necedades» que formulara Mateo Alemán. Por eso, no llama la atención que el físico John Langdon Down escribiera sus Observaciones sobre una Clasificación Étnica de los Idiotas (1866) y utilizara –siempre hay racistas que emplean ideas peregrinas– el fenotipo «malayo»«caucásico»«etíope» y «mongol» para tipificar a los individuos con capacidades intelectuales inferiores, en promedio, a la normalidad. Ahora bien, extraña, eso sí, el carácter casi unánime de los miembros de la comunidad científica internacional que aceptaban, con doctrinas espurias y xenófobas, la inferioridad del pueblo mongol para personificar los síntomas de la subnormalidad.

Así que el problema no es que haya sujetos ideologizados, que siempre y en todas las épocas los ha habido. El problema estriba en el modo en que ciertas personas ponen en pie su propia tiranía ideológica y cómo dedican tiempo y esfuerzos a reforzar discursos autoritarios, cerrados y ensimismados hasta alimentar sesgos de confirmación, sabiendo que los sesgos de confirmación remiten al comportamiento de quienes por misoneísmo buscan corroborar sus ideas con la misma fuerza y convicción con que rechazan y niegan evidencias novedosas. Y, de resultas, prefieren la defensa de su teoría frente a otras fuentes de conocimiento.

Y hablo de discursos «autoritarios», «cerrados» y «ensimismados» porque el entusiasmo con que sobrevaloramos nuestros conocimientos está directamente relacionado con el sectarismo con que infravaloramos, sin conocer, los conocimientos ajenos. ¡¡¡Los riesgos de los sesgos de confirmación son un canto a la ceguera voluntaria!!! Y con la decisión, estúpida, de apartar aspectos que no encajan dentro de nuestra teoría obviamos el detalle, nada insustancial, de que «los hechos no dejan de existir porque se ignoren» (Huxley,1927: 205).

 

 

8

La desconfianza es un valor

 

Entonces, corrígeme si me equivoco,
si alguna vez te recrimino tu actitud
cuando todo te parece poco.

Juan José Carvajal (2015), Corrígeme si me equivoco.

 

Por la se­nda predicativa ­del lenguaje las personas vamos entre luces y sombras y a lo largo de la Historia tanteando la anatomía de la verdad. Y en el sentido jurídico, como hacían los antiguos romanos, añadiendo sucesivas novelas (o cambios narrativos) a nuestros discursos sobre las cosas (Glez. Cortés, 2018). ¿Esto significa entonces que en el ámbito del conocimiento vale cualquier relato? En absoluto.

Entiendo el oficio de conocer como actividad abierta. De ahí la gran utilidad que se desprende de vigilar y repasar los resultados conseguidos. De ahí, igualmente, el valor que deriva de recelar de las deducciones obtenidas. ¿Recelar? Sí, en tanto en cuanto no podemos ni debemos definir el conocimiento como un acto de fe.

Más aún. Por el hecho de que la paideia de la sospecha constituye una herramienta indispensable en las sociedades democráticas estamos sometidos a escrutinio y a examen. Y al exigir niveles de transparencia autorizamos a comprobar, desde el derecho a saber, en qué terrenos se investiga y cuáles han sido (o no) los medios y pasos empleados y qué seguridad existe, si la hay, para respaldar determinadas conclusiones.

Y es que por medio de la desconfianza apreciamos cuándo el trabajo de humanistas o científicos se ajusta a la metodología, cuándo su labor concuerda con los pronósticos de sus predicciones y…… cuándo crea estafas a su paso. Con lo contrario, es decir, con negar los beneficios que desprende la sospecha consentiríamos las conductas de quienes manipulan teorías. Y, peor, nos convertiríamos en verdaderos majaderos. A este respecto conviene recordar las investigaciones de A. Tatsioni, G. Bonitsis y de P. A. Ioannidis, en las que estos historiadores científicos destaparon cómo el 60% de los estudios realizados sobre la vitamina E en 2006 incorporaban datos erróneos sobre el betacaroteno, datos que trece años antes ya habían sido completamente refutados (Tatsioni et alii, 2007: 2517 ss.).

¿Conocer implica pereza o, en otros términos, transferir nuestra confianza a los demás sin nada a cambio o sin ciertos niveles de escepticismo o de precaución? Nada más lejos. Una muestra del elevadísimo valor que tiene revisar aparece en los trabajos de biología molecular de Margot O’Toole. Esta joven investigadora percibió discrepancias entre las notas de laboratorio y lo que publicaba sobre el tratamiento del SIDA su jefa Dr. Thereza Imanishi-Kari. O’Toole descubre en 1986 que lo que se había vertido en la prensa era falso. El asunto adquirió consecuencias indeseadas, pues en la publicación de Imanishi-Kari se mencionaba al Premio Nobel David Baltimore. Y el éxito social que rodeaba a unos investigadores parecía no ir de la mano del éxito de una supuesta teoría.

¿Cuánta confianza debemos depositar en nuestros conocimientos? Ante el impacto público de la noticia los directivos del Instituto Tecnológico de Massachusetts (MIT) cortaban por lo sano. Y no solo hicieron oídos sordos a las conclusiones de la joven inmunóloga O’Toole, sino que descartaron sus denuncias antes de comprobarlas. Hubo, sin embargo, dos investigaciones federales separadas que concluyeron la existencia de fraude científico. Entretanto Margot O’Toole había perdido su trabajo en el MIT, asimismo su casa. Y temía que su marido también perdiera su trabajo por represalias contra ella. Diez años después, en 1996 un tribunal de apelación anuló los resultados de las investigaciones federales. Y el laureado Baltimore pedía disculpas a Margot O’Toole, pues en lugar de estudiar los detalles del descubrimiento, el Premio Nobel había definido a O’Toole como una persona desagradable, como becaria descontenta: «disgruntled postdoctoral fellow».

Ya sabemos que a los miembros que integran las corporaciones del conocimiento les resulta primordial alcanzar consensos, a veces ahogando disensos. ¿O acaso hemos olvidado la más que anécdota referida a Sir Isaac Newton, el cual, después de ser nombrado presidente en 1703 de la Royal Society, daba paso a científicos de poco genio y escaso talento, sin duda para no acabar enredado en indeseadas, para él, rivalidades intelectuales?

Está claro que los consensos corporativos carecen de validez en caso de no existir garantías de verdad, cosa que se produce cuando se rompe la cadena de supervisión, corrección y refutación en las fases del proceso del conocimiento, circunstancia que nos enseña lo que la propia O’Toole indicó: que «mi caso debería demostrarles que el proceso actual de resolver disputas de esta naturaleza simplemente no funciona, y esto es malo para la ciencia y para los científicos».

 

 

9

El peligro de los badulaques

 

Una persona estúpida es una persona que causa un daño a otra persona o grupo de personas sin obtener, al mismo tiempo, un provecho para sí o incluso obteniendo un perjuicio.

Carlo M. Cipolla (1988), Allegro ma non troppo.

 

La mala praxis no es un suceso aislado en el mundo académico. Ahí están las ocasiones en que ciertos estudiosos falsifican datos con tal de demostrar que tienen la razón de su parte. Fue el caso de Scott Reuben, quien, antes ser destapado su escándalo en 2009, había dedicado años de su vida a difundir engaños muy eruditos. Este anestesiólogo norteamericano, amén de inventarse los datos de sus investigaciones, no llegó a realizar ninguno de los estudios clínicos sobre el dolor que decenas de revistas científicas mundialmente acreditadas divulgaba.

Si hay posibilidades de equivocarnos, incluso bajo sistemas de control, con la ausencia de los criterios de supervisión, corrección y refutación es lógico que aumente y exponencialmente el riesgo al error. De ahí que sea necesario exigir dosis de escepticismo para (re) frenar los excesos, vengan de la propia necedad, vengan del seguidismo que incitan las modas académicas o vengan de los engaños que se fraguan a la sombra y con premeditación no solo en el ámbito de las humanidades, como vengo denunciando, sino asimismo en el terreno de las ciencias, tal y como lo ha puesto de relieve de manera muy notable David H. Freedman después de examinar algunos de los timos científicos que se han producido en los últimos años (Freedman, 2010: 339 y ss.).

Badulaques los hay en todas las profesiones. También en la esfera de lo intelectual. Por eso, además del gremialismo y de su síndrome, el de la boca cerrada, síndrome que es idóneo para volverse ciego a las malas prácticas y no crearse problemas profesionales al denunciar irregularidades y anomalías que cometen los compañeros de trabajo, asusta la facilidad de apropiarse de los resultados de las investigaciones ajenas con tal de alcanzar poder, fama y dinero. George Westinghouse se benefició, y de qué manera, de los estudios sobre corriente alterna de Nikola Tesla; las imágenes del ADN que logró exitosamente Rosalind Franklin fueron sin su permiso y de forma ilegal utilizadas por Francis Crick y James Watson, los cuales, y gracias al trabajo robado a Rosalind Franklin, serían galardonados con el Premio Nobel. Y en estos momentos, no lo dejemos de lado, cualquier becado o cualquier científica que descubre algo de interés en un laboratorio sólo recibirá, en el mejor de los casos, el 17% de la patente de su invento.

¿Y qué sucede cuando se aspira a hurtar a la humanidad de los avances científicos? El 24 de junio de 2000 se presentaba el primer boceto del genoma humano. Francis Collins representaba al proyecto público internacional PGH, mientras que Craig Venter a la empresa privada PE Celera Genomics. Casi un año después «la empresa Celera se desmarcaba y publicaba, sola, la secuenciación del genoma en la revista Science. La sociedad científica que aglutinaba al sector público hacía lo mismo y editaba sus resultados en la revista Nature. ¿Qué había ocurrido? Las compañías privadas que trabajaron en el proyecto Genoma Humano no quisieron difundir en un principio el contenido de sus investigaciones. Luego, debido a la presión pública (política y ciudadana), dieron marcha atrás abandonando su empeño por privatizar la ciencia» (Glez. Cortés, 2007: 202).

Las aguas parecen haber tornado a su cauce, aunque ciertos grupos libran una batalla por monopolizar los fragmentos de ADN o genes. En cualquier caso, cuando se evaporan el debate y el intercambio de ideas, y la cultura es absorbida por el poder, solo queda espacio para el seguidismo, para intereses epistémicamente dudosos, cuando no, dolosos, por parte de quienes se autoexcluyen de (los criterios de) el mundo y en nombre de su libertad creativa sobrepasan los criterios de supervisión, corrección y refutación, y se inventan criterios invisibles, divagadores… con tal de convencernos de que les acompaña la razón.

Y todo esto nos conduce a dos pequeñas evidencias. Una, a que la desconfianza es un valor, en absoluto despreciable. Otra, a que el estudio de la objetividad no se desvincula de los usos de la comunidad académica que, con sus regulaciones sobre el control y con su falta, a veces, de precauciones, se encarga de ratificar.

Con lo cual, y finalizo este apartado, ¿por qué en la tarea de conocer dedicamos buena parte de nuestra energía intelectual a la custodia cuartelera de una teoría? Lo saco a colación ya que con el ascenso de los monopolios ideológicos y su otra cara, el gremialismo (con vocación jurisdiccional) de los intelectuales, se esfuman demasiadas oportunidades para lograr un conocimiento menos erróneo y quizás más exacto.

 

 

10

Me he equivocado

 

Habría que escuchar a menudo de los intelectuales algunas frases como estas: «Me he equivocado. Tenía usted razón. Tendré que volverlo a considerar». Ya verás qué poco frecuentes son estas expresiones en las conversaciones de los inteligentes.

Jean Guitton (1993), Cartas a un joven de este tiempo.

 

Quien estime que no demandamos cautela se equivoca de principio a fin. Negar la existencia de errores es cosa inútil. Y por cuatro razones. Primero, por el hecho de que nos equivocamos a menudo. No hay desdoro en anotar la falibilidad humana, enrocarse en lo contrario equivaldría a engordar nuestro ego hasta niveles despóticos. En segundo lugar, porque las personas que integran la comunidad del conocimiento son de igual forma propensas a cometer errores de percepción, de valoración, de lógica… incluso desde la buena fe.

En tercer lugar, porque la manera de retirar teorías y datos incorrectos es admitiendo que el error puede caminar a nuestro lado. Lo que nos lleva a este corolario: «no somos cátaros ni entes maquinales que caminan por los surcos de la pureza». Entonces, ¿por qué esa terca obstinación que nos mantiene, tras equivocarnos, en la necedad de no asumir nuestra (parte de) culpa? ¿Y de dónde arrancan tanto esfuerzo, tanto atrevimiento, tanto clasismo, tantos privilegios en pedir irresponsabilidad para el investigador? El éxito es nuestro. El error, también.

Y, en cuarto lugar, resulta improductivo negar la existencia de equivocaciones porque, pese a la inherente falta de credibilidad que estas despiertan, de los llanos del error arrancan no pocas veces la experiencia del (re) conocimiento y, por tanto, la chance de cambiar el tono y el contenido de (las tradiciones de) las teorías. Y es que, incapacitados para alcanzar una Verdad con mayúsculas –«lo que sabemos es una gota de agua; lo que ignoramos es el océano», declaraba Isaac Newton (Amate Pou, 2017: 117), solo nos queda, y eso es muchísimo, controlar el talante autoritario de las teorías. ¿Con qué fin? Con el fin de revisar los defectos de interpretación y de metodología que pueden aparecer en el proceso de cualquier investigación.

No obstante, y para complicar la cuestión, no existen vacunas contra la posibilidad de equivocarnos. Y, por más que ese sentimiento de inestabilidad angustie a los defensores del ideal «máquina», ni con las precauciones de saber que no tenemos toda la razón vamos a abandonar para siempre la posibilidad de toparnos con el error, propio o ajeno. De ahí el valor del escepticismo «organizado», necesario a mi juicio para detectar algunos de los riesgos de nuestra falibilidad.

 

 

Conclusiones

 

Culto es aquel que sabe dónde encontrar lo que no sabe.

Georg Simmel (1908), Sociología.

 

En su lucha contra los dogmáticos los escépticos declararon que la verdad no existía. Al hacerlo crearon, ¿sin darse cuenta?, otra ortodoxia, igual de dogmática que la de sus oponentes. La prueba más reciente de ello está en Sören Kierkegaard. Este filósofo existencialista que combatía la perspectiva de la verdad total de Hegel insistió en que la incertidumbre objetiva «es la verdad, la más alta verdad que pueda haber para un sujeto existente», hasta el límite, concluye Kierkegaard, de que «la verdad consiste precisamente en este acto de valentía que elige la incertidumbre objetiva con la pasión del infinito» (Kierkegaard, Sören, 1846: 134).

Es obvio que se puede ser fieramente crítico y absolutamente dogmático a la par. (En nuestros días, el auge tanto de la posmodernidad como de los movimientos feministas ‘contrademocráticos’ lo refrenda.) Sin embargo, la certidumbre absoluta igual que la incertidumbre total es enemiga del conocimiento, pues ¿para qué saber si aceptamos alegre y confiadamente que lo sabemos todo acerca de la (in) certidumbre?

Las líneas del horizonte han variado y siguen variando a partir de la conciencia del error. Y gracias a la táctica de nuestros antepasados basada en el ensayo y error ha sido posible el aprendizaje durante miles y miles de años. Y ante los peligros que comportan las extralimitaciones, en este caso nacidas del exceso de fe y de confianza, opino que la verdad existe, pero entre matices, dependiendo de situaciones y condicionantes y, a veces, habitando entre los claroscuros de la contingencia, y más cuando «hemos llegado a un nuevo nivel de comprensión en el que la racionalidad ya no se identifica con la «certeza» ni la probabilidad con la «ignorancia» (Prigogine,1988: 69).

¿Eso significa que vivimos en el desasosiego del fracaso y bajo la inseguridad de las incertezas y con la desazón de que no existe una «filosofía verdadera», incluso una «ciencia verdadera»? No. Estricta y llanamente indica que somos individuos que moran en el aquí y ahora; que muy rara vez conseguimos un índice cero de errores en el ámbito de la investigación; que en el mejor de los escenarios seremos meras huellas para aquellos que el día de mañana decidan discutir o recuperar nuestras contribuciones; que es peligroso postular teorías defendidas desde el descontrol que generan las hambres de infinitud, esto es, al margen de la recogida finita de información empírica. Y al margen de nuestras facultades igualmente finitas.

En fin, en mi planteamiento la objetividad poco tiene de objetiva cuando se deshumaniza y se entiende como retrato cósmico de la Realidad y cual mecanismo de naturaleza sobrehumana. En mi planteamiento, ser esquivos a los riesgos conllevaría apartarnos de los elementos que están presentes en las fases de construcción del conocimiento. Y, dado que es inviable una ciencia sin co-ciencia o conciencias, por la misma razón no puede haber conocimientos sin la actividad que ejercen las personas tanto en la elección de los datos fácticos como en los intentos por controlar los errores desde los criterios de objetividad, sobre todo porque «la razón es aquella facultad humana que permite construir criterios cuyo fin es interpretar la realidad de forma compartida» (Maestro, 2013).

¿Provisionalidad de las certidumbres? Nunca aparece tal provisionalidad si admitimos que existe una ciencia inhumana. Pero, como no hay motivos para apelar al ideal de una racionalidad que actúa independiente de los seres humanos, tampoco y por la misma regla de tres deduzco que sea posible defender criterios epistémicos más allá de quienes, con sus aciertos y fracasos, intervienen en (la elaboración y refrendo de) los trabajos del conocimiento. Esto significa que el futuro está abierto. Y porque lo está podemos seguir aprendiendo, inmersos en una realidad que, lo observó hace mucho tiempo el filósofo Heráclito, es variable, fascinante… Y abierta a hallazgos, a renovaciones, con avances y retrocesos, añado.

Eso sin olvidar que en la cadena de transmisión de conocimientos, que eso significa «tradición», es frecuente que «el que comprende no elige arbitrariamente su punto de mira, sino que su lugar le está dado con anterioridad» (Gadamer, 1960: 401). Con otras palabras. No estamos fuera de una tradición ni siquiera fuera de (la tradición de) la antitradición, como sugieren los posmodernos, pues siendo como somos un simple eslabón de una larga sucesión de aportaciones somos apenas algo al margen de las elaboraciones de quienes, por precedernos, tanto hemos aprendido y no pocas veces alejado.

Y, dado que el discurso ‘científico’ es incompatible con la ausencia de información fáctica -también lo es con la falta de un canon metodológico, no hay epistemológicamente teorías sin el encuadre de un aquí y ahora, encuadre que puede ser variado hoy o mañana.

Y para no engañar en nombre de la verdad, excluyo por dogmática y utópica cualquier conceptualización de lo real que pretenda ser verdadera en y por sí misma: sin inmanencias ni registro empírico, sin contextos ni tradiciones, sin individuos, datos ni comprobaciones metodológicas, toda vez que los actos dirigidos a emanciparse de lo concreto, lo sugirió hace tiempo Gustavo Bueno, avivan pantopías.

Un detalle. Cuando Wittgenstein concibió su Tractatus en el interior de una trinchera y luego como prisionero de guerra italiano lo terminaba de escribir, juzgó estar, igual que los místicos del pasado, en posesión de la luz y creyó haber resuelto «todos» los (meta) problemas del conocimiento. Así que ¿«verdad» con garantías totales? Imposible si no somos entes angelicales ni seres genéticamente perfectos.

¿Y qué hay de ese sueño, deslumbrador, de considerar la «verdad» como un mapa sin equívocos? Filósofos ‘teólogos’ como Descartes y Leibniz, uno desde el catolicismo, el otro desde el protestantismo, propusieron hace tiempo la existencia de la verdad dogmáticamente verdadera, o sea, lineal y sin errores. Pero tal cosa, en mi opinión, es harto difícil de aceptar, habida cuenta de que esta premisa en la medida en que exagera las expectativas sobre la humana objetividad oculta las relaciones, las tensiones y aportaciones, nunca enteramente aclaradas, entre lo social y lo individual, entre la soledad creativa de las personas y la influencia de las tradiciones y de los grupos de presión.

Por último, ¿«verdad» desde el supuesto de que somos capaces de navegar con los vientos a favor de una neutralidad absoluta? Igual de improbable, ya que el conocimiento tiene sus raíces en la conducta, deliberativa y valorativa, de las personas. Y la utopía de una humanidad que jamás se equivoca no tiene cabida en el ámbito ‘real’ del conocimiento.

En conclusión, aunque los idealistas del siglo XXI traten fanáticamente de imponer por la vía de la repetición y la propaganda modelos colectivistas de antipensamiento, estos modelos no alcanzan ni alcanzarán estatus de verdad, pues lo que tienen entre manos son doctrinas cerradas que, por su inherente y densísimo dogmatismo, repelen cualquier criterio de crítica, es decir, de supervisión, corrección y refutación.

En cualquier caso, y fin del relato, si el acto de conocer desmiente la ambición barthesiana de cerrar los ojos, ¿quién dijo que conocer fuera una tarea fácil? ¿Y quién dijo que conocer supusiera el hecho golpista, tan despótico como reaccionario, de excluir los principios de revisión, corrección y refutación?

 

 

Bibliografía

 

En comunidad es fácil vivir según las ideas ajenas. En soledad, es fácil vivir según las ideas propias. Pero solo es notable el que, en comunidad, conserva la independencia.

Ralph W. Emerson (1840), La confianza en sí mismo.

 

 

  • Albert, Hans (1961), El mito de la razón total, en Adorno, Theodor, Popper, Karl, Dahrendof, Ralf, Habermas, Jürgen, Albert, Hans, Pilot, Harald (1961), La disputa del positivismo en la sociología alemana, Barcelona-México, Grijalbo, 1973.
  • Althusser, Louis (3-XII-1978), Lettre à Jean Guitton, en Guitton, Jean (1988), Un siécle, une vie, Paris, Robert Laffont.
  • Amate Pou, Jordi (2017), Paseando por una parte de la Historia. Antología de citas, Penguin Random House, Grupo Editorial España.
  • Barthes, Roland (1971), Sade, Fourier, Lozoya, Paris, Éditions du Seuil. Puede leerse en línea.
  • Barthes, Roland (1980), La cámara lúcida, Barcelona, Paidós, 1989.
  • Carvajal Espigares, Juan José (2015), Poemas de bolsillo, Sevilla, Punto Rojo Libros.
  • Cipolla, Carlo M. (1988), Allegro ma non troppo, Barcelona, Crítica.
  • Cheney, Margaret (2009), Nikola Tesla: El genio al que le robaron la luz, Madrid, Taurus, 2010.
  • Debray, Régis (1979), Le pouvoir intellectuel en France, Paris, Éditions Ramsay.
  • Drucker, Peter F. (1959), Landmarks of Tomorrow, New York, Harper.
  • Drucker, Peter F. (1969), The Age of Discontinuity, New York, Harper & Row.
  • Einstein, Albert, & Infeld, Leopold (1938), La evolución de la física, Barcelona, Biblioteca Científica Salvat, 1986. Puede leerse en línea.
  • Emerson, Ralph W. (1840), Self-Reliance, Oxford, Infinite Ideas Limited, 2010.
  • Freedman, David H., 2010, Equivocados. Por qué los expertos siguen fallando y cómo saber cuándo no confiar en ellos, Barcelona, Ediciones Urano, 2011.
  • Gadamer, Hans-Georg (1960), Verdad y Método, Salamanca, Sígueme, 1991.
  • Galileo Galilei (1632), Diálogo sobre los dos máximos sistemas del mundo, en Calvino, Ítalo (1984), Por qué leer los clásicos, Madrid, Siruela, 2009.
  • Glez. Cortés, María Teresa (1999), De la Biología a la Sociobiología, Madrid, Revista Arbor, 1999, nº 637, vol. 162.
  • Glez. Cortés, María Teresa (2007), Los viajes de Jano, historias del cuerpo, Barcelona, Icaria.
  • Glez. Cortés, María Teresa (2016), El ascenso de los intelectuales, crónica de una estupidez, Boletín de la Cátedra Hispánica de Estudios Literarios, vol. G., en línea.
  • Glez. Cortés, María Teresa (2019), «Aventuras y desventuras de la filosofía ante la novela», en Boletín de la Cátedra Hispánica de Estudios Literarios, vol. G., en línea.
  • Guitton, Jean (1993), Lettres ouvertes, Paris, Payot & Rivages.
  • Hayek, Friedrich August von (1940-1943), The Road of Serfdom, London, Routledge Press, 1944, trad. española en Hayek, Friedrich August von (1940-1943), Camino de servidumbre, Madrid, Alianza, 2000.
  • Hegel, Georg Wilhelm Friedrich (1796), Eleusis (Poema a Hölderlin), en línea.
  • Huxley, Aldous (1927), A note on dogma, editado en Proper Studies, London.
  • Jenófanes (c. VI-V a. C.), en VV. AA. (1981), Los filósofos presocráticos, Madrid, Gredos, vol. I.
  • Jiménez, Juan Ramón (1916-1917), Eternidades, Madrid, Visor Libros, 2007.
  • Kierkegaard, Sören (1846), PostScriptum définitif et non scientifique aux Miettes philosophiques, Paris, Éditions Gallimard, 1941.
  • Leys, Simon (2007), La felicidad de los pececillos, Barcelona, Acantilado, 2011.
  • Maestro, Jesús G. (2013), «La esterilidad de los intelectuales: sobre la acrítica relación entre Literatura y Utopía», en Crítica de la razón literaria: una Teoría de la Literatura científica, crítica y dialéctica. Tratado de investigación científica, crítica y dialéctica sobre los fundamentos, desarrollos y posibilidades del conocimiento racionalista de la literatura, Vigo, Editorial Academia del Hispanismo, 2022, 10ª ed. digital definitiva disponible en línea.
  • Milner, Jean-Claude (1989), Introduction à une science du langage, Paris, Éditions du Seuil, 1995.
  • Mill, John Stuart (1859), Sobre la libertad, Madrid, Verbum, 2016.
  • O’Toole, Margot (2019), What Can We Learn From The Investigation Of Misconduct y Biologist Who Disputed a Study Paid Dearly), en línea.
  • Onfray, Michel (2015), Cosmos, une ontologie matérialiste, Paris, Flammarion.
  • Platón (427-347 a. C.), Sofista, en Platón, Diálogos, Madrid, Gredos, 1988, vol. V.
  • Popper, Karl (1984), En busca de un mundo mejor, Barcelona, Ediciones Paidós, 1994.
  • Prigogine, Ilya (1988), Origins of complexity, en Fabian, A. C. (ed., 1988), Origins. The Darwin College Lectures, Cambridge, Cambridge University Press.
  • Reuben, Scott (2009), El 'doctor Madoff' del dolor, en línea.
  • Sartre, Jean-Paul (1974), en Gavi, Philippe, ‎ Sartre, Jean Paul & ‎ Pierre, Victor, On a raison de se révolter, Paris, Libération, 2-XII-1974. 
  • Sexto Empírico (c. 100 d. C.), Hipotiposis Pirrónicas, Madrid, Akal, 1996, edición de Rafael Sartorio Maulini.
  • Simmel, Georg (1908), Sociología. Estudios sobre las formas de Socialización, Buenos Aires, Espasa Calpe, 1939.
  • Sols, Alberto (1987), Autobiografías de investigadores, en Saber leer, Madrid, Revista crítica de libros de la Fundación Juan March, nº 3, 1987.
  • Tatsioni, A., Bonitsis, Nikolaos G., & Ioannidis, John P. A. (2007), Persistence of Contradicted Claims in the Literature, en Journal of the American Medical Association, vol. 298, nº 21, 2007. Puede leerse en formato digital, en línea.
  • Vidmaayer, Peter (2015), It is better to be vaguely right than exactly wrong, en Kosowski, Adrian, & Walukiewicz, Igor (eds., 2015), Fundamentals of computation theory, Gdansk, Springer.
  • Wittgenstein, Ludwig (1914-1918), Tractatus Logico-Philosophicus, obra publicada en 1921, en línea.

 



*     *     * 




Jesus G. Maestro