jueves, 7 de octubre de 2010

Crónica Nº7 de 2010

Crónica 7 de 2010
Kronyka 2010-09-15

1. Omar al-Jayyam, 1048-1131, y sus cuartetas Robaiyyat deficientemente traducidas
2. Martines-Pescadores, Kingfishers, Alciones, Íspidas: Aves Coraciiformes Alcedinidas
3. Inicios del derrotero bio-fisio-neuro que condujo a las Redes Neuronales Artificiales

1. Omar al-Jayyam, 1048-1131, y sus cuartetas Robaiyyat deficientemente traducidas

Matemático, astrónomo, poeta, filósofo, materialista, naturalista, pesimista, escéptico
Puede que haya sido escéptico, pesimista y hedonista pero peregrinó a la Ciudad de La Mecca
Un cráter lunar lleva su nombre en honor a sus investigaciones astronómicas

La biografía de Omar al-Jayyam es muy conocida y pensé que poco podría yo acotar sobre lo dicho por tantos de sus exégetas, admiradores y detractores, máxime si no he leído su obra Robaiyyat, o Rubaiyyat, o Robáiyyát, en su lenguaje original, färsi, o persa antiguo. Uno debiera leer a los autores de obras literarias en su idioma nativo, no en traduciones. Pero me atrevo a formular comentarios sobre sus Robaiyyat.

El aspecto crucial que me preocupa aquí son las, a mi parecer, deficientes traducciones de los Robaiyyat. Por lo que se ha descrito en la literatura, esas cuartetas, en el lenguaje original färsi, además de ser independientes entre sí, tienen dos características principales:

A. Son dodecasílabas, o de 12 sílabas, siendo una sílaba las letras en una inflexión de voz.
B. En ellas riman las líneas 1, 2 y 4, quedando libre la 3.

Pero en traducciones que he ojeado eso no se cumple. Aunque se pase primero del färsi al árabe, las condiciones A y B son difíciles de cumplir en traducciones a lenguajes occidentales, como, por ejemplo, el inglés o el castellano. El escritor chileno Armando Roa Vial ha indicado que la verdadera traducción literararia debe alejarse tanto de la metáfrasis, o calco de palabras, como de la imitación y que debiera ser más bien una paráfrasis, o traducción con cierta latitud y manteniendo el sentido, como sugirió Dryden. Averigüé que John Dryden fue un poeta, dramaturgo y crítico inglés del siglo 17.

Anoto a continuación la cuarteta, o rubai, 8, en una típica traducción al castellano

El mar de la existencia emergió de lo oculto;
no hay sondeo que horade esta piedra preciosa;
los que explicaron algo, lo hicieron por quimera,
qué sea, en realidad, nadie puede decirlo.

Se aprecia que ese traductor no cumplió las características A y B. Pero si critico a tantos traductores, yo debiera generar al menos una versión, original mía, que tenga las características A y B. Propongo una, aproximada, a continuación:

Del arcano emanó la existencia.
Ningún examen aclara su fulgencia.
Cualquiera explicación es quimérica.
Nadie puede dilucidar su esencia.

Planteo, como Tareas, el que los Lectores y Lectoras interesados en literatura redacten las cuartetas, rubais o robaiyyats, 14 y 19, que siguen, en versiones parafrásicas que satisfagan las condiciones A y B:

Los necios que horadaron la perla del sentido
dijeron bien distintas cosas de las esferas;
como del universo los secretos no hallaron,
empezaron charlando y terminaron durmiendo.

Lástima que sin causa vayamos decayendo
y seamos segados por la hoz del firmamento;
lástima que en el tiempo que dura un parpadeo
no estemos nunca a gusto y desaparezcamos.

2. Martines-Pescadores, Kingfishers, Alciones, Íspidas: Aves Coraciiformes Alcedinidas

El Martín Pescador, macho, a juzgar por las rojas plumas de su pecho, se posó en las varillas reflectoras de una antena Yagi. Oteó cuidadosamente el panorama: las grisáceas aguas del Lago Llanquihue, los añosos coigües y ulmos, las nubes arreboladas por el sol del atardecer, otros aves que revoloteaban, y el bípedo humano que lo observaba. Luego reanudó su vuelo al sur y nunca retornó. Las antenas evolucionaron a logarítmicas, pero después a parabólicas satelitales, menos apreciadas por las aves. Cada verano yo, ese bípedo humano, espero ver otro Martín Pescador. Al menos tengo dos martines-pescadores de madera para recordar y evocar a esas hermosas y coloridas aves.

Nuestra segunda nieta, memorista en la Universidad de Chile, asistió a un Congreso de su especialidad en Buenos Aires y cariñosamente nos trajo regalos a mi esposa y a mí, sus abuelos paternos. Mi regalo es un hermoso libro sobre aves argentinas, editado lujosamente en 2009. En tres páginas encontré hermosas fotografías de martines-pescadores y recordé a su congénere del Sur de Chile. En Internet-Google hay muchísimas otras imágenes.

En el mundo hay unas 90 especies de martines-pescadores, unas pocas de ellas en América. Hay cierta confusión, en opinión de ornitólogos, sobre la taxonomía o clasificación de dichas aves. La cladística es una clasificación basada en la evolución. Los fósiles de martines-pescadores datan de unos 40 millones de años, según ciertas fuentes. También hay estudios con ADNs. El kingfisher, martín-pescador común, tiene el nombre científico de Alcedo atthis. El martín-pescador chileno, que sería como un Ringed Kingfisher, para darle un status de realeza, que no necesita, habita desde Concepción hasta Tierra del Fuego y se llama Ceryle torquata stellata. Mide unos 45 centímetros y los machos y hembras difieren poco externamente, salvo por ciertos colores de plumas. Los Kookaburras de Australia y Nueva Guinea son Dacelos y no son muy parecidos a los martines-pescadores comunes, Alcedos.

Las Coraciiformes Alcedinidas son aves de vuelo, Neognatas o Carinadas, y se distinguen tres familias de martines-pescadores: Alcedinidaes, o de río; Alcyonidaes, o de árbol; y Cerylidaes, o de aguas tranquilas o estancadas. Los martines-pescadores de América, y el de Chile, son Cerylidaes. Habitan en túneles que cavan en las riberas de los ríos o fuentes de agua. Nunca he encontrado alguno. Se zambullen desde ramas, o desde vuelo rasante, para atrapar pequeños peces. También se alimentan de insectos acuáticos, renacuajos o crustáceos.




3. Inicios del derrotero bio-fisio-neuro que condujo a las Redes Neuronales Artificiales

Las Redes Neuronales Artificiales, o Artificial Neural Networks, ANN, son muy aplicadas en diversas, polifacéticas, actividades de la civilización actual. Son herramientas fundamentales en variadas disciplinas. Hay muchas sociedades científicas y de ingeniería dedicadas a su investigación y desarrollo, Existen, y aparecen continuamente y en número creciente muchísimos libros, revistas, publicaciones y artículos sobre ellas, no sólo en ámbitos especializados sino también generales o de otras disciplinas. Hay softwares comerciales dedicados a ANN y que facilitan su empleo. Pero el nacimiento y la vida inicial de las ANN no fueron fáciles y relato aquí, muy someramente, algunas facetas bio-fisio-neurales sobre esos comienzos. Esos temas son muy amplios y los abrevio mucho. A grandes rasgos se dice que las ANN son intentos de modelar, muy simplificadamente, el funcionamiento de neurones o neuronas del cerebro o sistema nervioso. Pero hay que imaginar que el cerebro es como una fondosa foresta de árboles entrelazados y las ANN meras filas de ellos. Es cierto sí que las ANN, en software, firmware o hardware de muy alta integración son cada vez más poderosas.

Los estudios sobre el cerebro y el sistema nervioso empezaron hace siglos. Pero se piensa que el inicio concreto en el derrotero que condujo a las ANN se debe a las investigaciones y aseveraciones, en 1890, del filósofo estadounidense William James: La cantidad de actividad en un punto de la corteza cerebral es la suma de las tendencias de todos los otros puntos a descargarse en él. Tales tendencias son proporcionales: (1) al número de veces de la excitación con que los otros puntos hayan acompañado la del punto en cuestión; (2) a las intensidades de tales excitaciones; y (3) a la ausencia de cualquier punto rival, funcionalmente inconexo con el primer punto, al cual pudieran desviarse las descargas. En lenguaje actual, el punto de la corteza cerebral es el neurón, o neurona. La actividad del neurón motivada por los otros neurones se representa por pesos, o ponderaciones, de las conexiones neurales (1), de las excitaciones actuales (2) y de un término inhibitorio (3). El neurón tiene un cuerpo, o soma, en el que se realiza la actividad, química-eléctrica. Al ser activado el neurón transmite señales por su axón y dendritas, y uniones sinápticas, a otros neurones. Obviamente, aquí no se puede dar detalles neuronales completos. En 1943, W. McCullough y W. Pitts, plantearon el modelo McCP, que es la base para representar matemáticamente el funcionamiento del neurón, y las ANN, a saber: y = f(u); u = ∑ wk xk + θ; k y la sumatoria van de 1 a n, si hay conexiones a otros n neurones aferentes al de interés. Los xk son las entradas, por los axones y dendritas aferentes de los otros neurones. Los pesos wk son intensidades de conexión entre las sinapses. La sumatoria representa el cuerpo, soma, del neurón. Los wk xk significarían las dendritas. El término θ es inhibitorio o excitatorio, según sea negativo o positivo; usualmente se le incluye dentro de la sumatoria, de 0 a n, como w0 x0. La variable de salida del axón, o nervio largo, es denotada como y. Todas esas variables son funciones del tiempo, t. La función f(.) representa la activación del neurón y usualmente es de forma sigmoidal, por ejemplo f(u) = 1 /[ 1 + exp (- u)]. En el caso del Perceptrón, f(u) vale +1, si u es positiva, o bien -1, si u es negativa.

Una ANN se realiza conectando capas de esos neurones. Habría un neurón de entrada para cada una de las entradas al sistema y un neurón para la salida y(t). El número de capas intermedias, u ocultas, varía con la aplicación: conviene que sea una, si es posible. Hay varios métodos, como el de retropropagación, para enseñar a la ANN a reconocer patrones que se deseen realizar o emular. El desarrollo de las ANN fue prácticamente suspendido cuando dos autores hicieron notar que un Perceptrón monocapa no puede realizar la operación EXOR, Exclusive OR, pero se reanudó al demostrarse que EXOR sí puede ser realizada con Perceptrones bicapa o multicapa. Eso se relaciona con el tema matemático de Separabilidad, que no explico aquí.

Los algoritmos para el ajuste de los pesos w, para el entrenamiento de y aprendizje por la ANN son de la forma w ( t + 1) = w(t) + a g(t)h(t), donde: t, tiempo discreto actual; g(t) y h(t) variables que dependen del tipo de neurona y aprendizaje; a, factor de velocidad del ajuste de pesos. Esa función alineal g(t)h(t) es un tipo de aprendizaje debido a D. Hebb, 1949, quien trató de formalizar matemáticamente tanto lo escrito por W. James como los reflejos condicionados estudiados por I. P. Pávlov, Premio Nobel 1904. Incidentalmente, en control automático adaptativo se usan términos de ajuste alineales de la forma matemática indicada. Las funciones g(t) y h(t) podrían ser, por ejemplo, un error e(t) y un y(t) retroaalimentado, o, en ANN, un x(t), entrada de otro neurón, u otra señal apropiada. La estabilidad del sistema, y su operación, y la convergencia de los algoritmos se demuestran, típicamente, con funciones de Lyapunov. En otra Crónica espero continuar este tema en aspectos de las ANN como aproximadoras universales de funciones matemáticas.

No hay comentarios: