Emular La Naturaleza Además De Observarla

Transcription

Academia de Ciencias Matemáticas,Físico‐Químicas y Naturales de GranadaEMULAR LA NATURALEZA,ADEMÁS DE OBSERVARLADISCURSO LEÍDO EN EL ACTO DE SU RECEPCIÓNCOMO ACADÉMICO NUMERARIO POR ELILMO. SR. D.ALBERTO PRIETO ESPINOSAGRANADA, 2008

Academia de Ciencias Matemáticas,Físico‐Químicas y Naturales de GranadaEMULAR LA NATURALEZA,ADEMÁS DE OBSERVARLADISCURSO LEÍDO EN EL ACTO DE SU RECEPCIÓNCOMO ACADÉMICO NUMERARIO POR ELILMO. SR. D.ALBERTO PRIETO ESPINOSAGRANADA, 2008

EMULAR LA NATURALEZA,ADEMÁS DE OBSERVARLA

EMULAR LA NATURALEZA ADEMÁS DEOBSERVARLAALBERTO PRIETO ESPINOSAAl Ilmo. Sr. D. Bernardo GarcíaOlmedo, Supernumerario deesta Academia, con el quecoincidí en el lugar y momentooportunosExcelentísimo Señor PresidenteIlustrísimos Señores AcadémicosSeñoras y SeñoresComo sin duda les habrá ocurrido a todos losque me han precedido en el ingreso en estaAcademia, la primera cuestión que me heplanteado en relación a ello ha sido establecer elcontenido de este discurso. Posiblemente llevado porla costumbre de haber participado en distintostribunales o comisiones de oposiciones he tratado deencontrar una normativa que especificase tiempo,materias a tratar, turnos de preguntas, etc. Heconsultado los estatutos de la academia y no heencontrado ayuda sobre estas cuestiones.Únicamente mi buen amigo Miguel Giménez Yanguas,que es Secretario de la bicentenaria y hermana RealAcademia de Bellas Artes, me ha indicado quetradicionalmente los discursos de ingreso en las1academias son de unos 25 minutos y deben ser leídos.Seguiré en lo posible estas tradiciones, aunque nootras, como la que establece que a los actos de laacademia deberíamos acudir con chaqué ya que,como los invitados asistentes a este acto pueden ver,optamos mejor por utilizar el traje académico cuyoadjetivo está en plena consonancia con el nombre dela noble institución que hoy me acoge formalmenteen su seno.Uno de los agradables resultados de mispesquisas sobre las disertaciones de ingreso es que nose establece el tema sobre el que discurrir, dejándolototalmente libre. Por ello he optado por hacerdistintas reflexiones personales acerca de lasexperiencias que he vivido a lo largo de mi vidaprofesional, la cual ha transcurrido totalmente en elámbito de la docencia, la ciencia y la tecnología.En efecto, trato de aprovechar estaoportunidad para explicar cómo, más o menos deforma zigzagueante, he ido de mis inicios en la Física,pasando por la Electrónica, a mi actividad actual, quepuede considerarse centrada en la Arquitectura deComputadores pero con un acusado carácterinterdisciplinar. Más concretamente, primero haréunas disquisiciones sobre mi vocación hacia la Física yla gran proyección que a mi juicio tiene ésta en ideraciones sobre la provisionalidad tanto de losconocimientos aportados por la Ciencia como de lastaxonomías que se hace de la misma. A continuación,compararé, desde un punto de vista meramentefuncional, el procesamiento de información querealizan las máquinas en contraposición con el que2

hace los seres vivos. Las ideas que surgen de estecontraste influyeron decisivamente en el rumbo de miactividad investigadora. Para poner de manifiesto lasposibilidades de emulación del comportamiento delos seres vivos en la tarea de tratamiento de lainformación, me referiré sucintamente a algunos delas experiencias del grupo de investigación que tengoel honor de dirigir. Como epílogo trataré de transmitirmi percepción acerca de algunos de los retos másimportantes de la Ciencia actual y de las limitacionesque paradójicamente ella misma deduce en suconsecución.En primer lugar deseo revelarles cómo se inició mifuerte vocación hacia la Física. Tuvo lugar enSalamanca, durante mi primer año del curso selectivode ciencias, atraído por el deseo de tratar decomprender por qué el color del cielo era azul y cómoéste cambiaba a bellísimas tonalidades en losamaneceres y en los ocasos. Mis compañeros decurso estaban extrañados porque decían que nuestroprofesor de Física era francamente mejorable y noinducia precisamente a una vocación hacia estadisciplina. He de señalar que en aquel entonces en laUniversidad de Salamanca había muy buenosprofesores, entre otras razones porque, al ser unlugar muy próximo a Madrid, con frecuencia recluíanen ella a catedráticos desafectos al régimengobernante a la sazón. Recuerdo a profesores comoFernando Galán, Norberto Cuesta Dutari, y en otroscampos a Antonio Tobar y Enrique Tierno Galván.Como en tercero de Físicas, ya en laComplutense de Madrid, logré satisfacer plenamentemi curiosidad acerca del colorido celeste,emocionalmente me sentí libre para elegir una de lasnuevas especialidades que nos ofertaban en un nuevoplan de estudios de la decimonovena promoción deCiencias Físicas, concretamente la de Electrónica yElectromagnetismo, de la que precisamente ahora secumplen 40 años. En este programa de forma muynovedosa se incluían algunas asignaturas deInformática, con la denominación de Automática, yaque por entonces no se había acuñado aún el término“Informática”.Sinceramente creo que una cualidad del físicoes su capacidad de adaptación a distintos campos delconocimiento, lo que le permite desarrollar con éxitoproyectos multidisciplinares y colaboraciones conmiembros de la comunidad científica de áreas muydiversas. He asistido, en entornos de profesionales, amás de una mesa redonda en las que los directivos deempresas de tecnologías de la información afirmanque para puestos de informática en los que serequieren actividades no rutinarias (iniciativa,innovación, trabajo en grupo, etc.) prefieren atitulados en física frente a otros titulados másespecializados.Sin duda los físicos hemos sabido impulsar ypromover, con gran generosidad, el advenimiento denuevas disciplinas y estudios que van surgiendo deacuerdo con el incremento de la especialización queconlleva la evolución de nuestra sociedad. Un ejemplolo constituye laFacultad de Ciencias de laUniversidad de Granada. En gran medida los estudios34I. PROYECCIÓN DE LA FISICA

de Informática, de Óptica y de Ingeniería Electrónicahan surgido de los estudios de Física, habiendo sido,en todos los casos, físicos los promotores einiciadores de los mismos. Esto, lejos de debilitar anuestra profesión la enriquece. Un hecho destacado:el 14 de marzo de 1983, la Junta de la Sección deFísicas de la Facultad de Ciencias, a la sazón presididapor el académico Ilmo. Prof. Dr. D. Jesús SánchezDehesa, acuerda por unanimidad “apoyar y urgir lacreación de una Sección de Informática en estaFacultad”.Fue el primer pronunciamientodocumentado de un órgano colegiado de laUniversidad apoyando dichos estudios. Dos años mástarde se iniciaron los mismos. De aquella iniciativahoy tenemos unos estudios de informática que segúndiversos indicadores se encuentran entre los mejoresde España.Por otra parte la contribución y complicidadque ha habido y hay entre la Física y la Electrónica eInformática, en el desarrollo de estas dos últimasdisciplinas es evidente. A vuelatecla, y refiriéndomesólo a partir de la década de los 40, algunos ejemplosson los siguientes: Durante los años 1944 a 1946, John P. Eckerty John W. Mauchly construyen en laUniversidad de Pensilvania el ENIAC, que es elprimer computador electrónico de usogeneral completamente operativo. Mauchlyera Físico y Eckert Ingeniero Eléctrico. En 1945, John von Neumann publica elconcepto de programa almacenado enmemoria, que es uno de los fundamentos delos computadores; de hecho los especialistas5 denominamosaloscomputadoresconvencionales actuales, “computadores vonNeumann”. Este científico hizo grandescontribuciones a la Física Cuántica y a laHidrodinámica. Su preocupación por eldesarrollo de los computadores partía de sudeseo de encontrar una herramienta para laresolución de ecuaciones de hidrodinámica.En 1956, William Bradford Shockley, JohnBardeen, Walter Houser Brattain reciben elPremioNobeldeFísicaporsusinvestigaciones en semiconductores y eldescubrimiento del efecto transistor, que esel fundamento tecnológico de la segundageneración de computadores.En 1979, Allan M. Cormack Godfrey y N.Hounsfield reciben el Premio Nobel deMedicina por el desarrollo de la tomografíaaxial con ayuda de computador. La titulaciónoriginal de Allan M. Cormack es AstrofísicaEn 1982, John J. Hopfield, concibe el modelode red neuronal asociativa, conocidacomúnmente como Red de Hopfield. LasRedes Neuronales Artificiales constituyen unaherramienta del ámbito de la FísicaComputacional, siendo una metodología muyusada para el diseño de sistemas inteligentespara procesamiento de la información.Hopfiel es un físico de gran prestigio, en laactualidad Presidente de la American PhysicalSociety.Alrededor de 1990, Timothy Berners‐Lee,licenciado en Física en la Universidad de6

Oxford, ante la necesidad de distribuir eintercambiar información acerca de susinvestigaciones de una manera efectiva,desarrolla las ideas fundamentales delconcepto de web, siendo considerado uno desus padres. Como resaltaré más adelante, lainvención de la web supone uno de loshechos más notables de la segunda mitad delsiglo pasado.En 1991, Pierre‐Gilles de Gennes recibe elPremio Nobel de Física por descubrir métodospara analizar formas complejas de la materia,en particular la de los cristales líquidos y lospolímeros. El cristal líquido es el fundamentode las pantallas de visualización de loscomputadores actuales.En 2000, Jack S. Kilby recibe el Premio Nobelde Física por su contribución (1959) a lainvención del microchip, fundamentotecnológico de la tercera generación decomputadores.Con estos ejemplos queda puesto de manifiesto lagran contribución que se ha realizado desde la Físicaen el desarrollo de la tecnología de los computadores.II. DEMARCACIONES EN LA CIENCIAPermítanme que, antes de continuar, haga unasconsideraciones sobre el concepto de Ciencia; no envano éste es el calificativo con el que se designanuestra insigne Academia.7La Ciencia obtiene sus conocimientosmediante la observación y el razonamiento. En el casode las Ciencias Naturales dichas observaciones sehacen de la Naturaleza. Opino que los científicos sólohacemos procesos o construcciones mentales queexplican más o menos parcialmente el mundo quepercibimos1; es decir, nunca podremos llegar acomprender la verdad o realidad que subyace bajo laNaturaleza, si es que dicha verdad existiese. Losresultados de las construcciones mentales es lo queconocemos como modelos, teorías, principios o leyes,y en la mayoría de los casos son efímeros; pero nopor ello dejan de ser extraordinariamente útiles yaque nos permiten dar una interpretación a lo queocurre, prever lo que va a suceder y hacer ingeniería;es decir, construir sistemas artificiales. El contemplarcómo a lo largo del tiempo surgen nuevas teorías quesuperan a las anteriores, es una prueba evidente de locoyunturales que son los conocimientos de la Ciencia.Deseo insistir en la conclusión anterior. Heindicado que la Ciencia obtiene sus conocimientos,además de mediante la observación, por elrazonamiento. Pero el razonamiento lógico, que es alque me estoy refiriendo, se rige por unas reglasestipuladas, que a su vez son construcciones denuestra mente, y por tanto, en mi modesta opinión,precarias (sin un substrato objetivo fuera de nuestroscerebros). Así, muy probablemente las leyes quehubiésemos ideado para entender los fenómenos dela naturaleza serían muy distintas si nuestra forma de1"Los conceptos y principios fundamentales de la cienciason invenciones libres del espíritu humano”, Albert Einstein.8

razonar no hubiese estado fundamentada en la lógicaaristotélica, el discurso del Método de Descartes, etc.,aunque también esas ignotas y circunstanciales leyeshubiesen servido para explicar dichos fenómenos.Sobre esta limitación que la Ciencia hacesobre lo que ella misma puede llegar a conocer,volveré en el epilogo de esta disertación.Dentro de este contexto, un hecho evidentesobre el que con frecuencia reflexionamos es locontingente o provisional que resulta ser elestablecimiento de las distintas disciplinas de lasCiencias Naturales. La Naturaleza, podríamos decir,que es un todo continuo y no distingue entre Física,Química, Biología o Geología. Realmente no existenfronteras entre las ciencias, sino demarcacionesprácticas. Aunque Wilfred Trotter obviamenteexageró cuando afirmó que Toda ciencia es o bienfísica o filatelia.Sólo por cuestiones metodológicas ocoyunturales u oportunistas estructuramos elconocimiento sobre la Naturaleza en distintas ramas.La frase de Wilfred Trotter, de principios del pasadosiglo, trae a colación las demarcaciones que a lo largode la historia se ha realizado de las ciencias, y delconocimiento, en general.En la antigüedad, y principalmente por laescolástica medieval, los conocimientos que seimpartían se agrupaban en artes liberales, que eranlas que sirven al hombre libre para encontrar laciencia y el conocimiento “per se”, y en artesmecánicas o serviles, que correspondían a oficiosprácticos, con una finalidad puramente económica y9útiles para que ganen su sustento los que lospractican.Las artes liberales eran siete y se incluían endos grupos diferentes, establecidos en la escuelacarolingia (Siglo V). El primero o trivium, comprendíala Gramática, la Retórica y la Dialéctica, son disciplinasque se refieren al discurso y al lenguaje. El segundogrupo o quadrivium contenía la Astronomía,Geometría, Aritmética y Música, disciplinasmatemático‐científicas. Estas materias conformabanel núcleo de enseñanzas de las universidades de laEdad Media.Las artes mecánicas circunscribían materias uoficios tales como arquitectura, agricultura, medicina,farmacia, construcción naval, e ingenierías, engeneral.Con la minuciosidad que caracterizaba a los2escolásticos, Raimundo Lulio (a finales del Siglo XIII)hizo una clasificación exhaustiva de los oficios de laépoca. En total nos muestra dos oficios liberales(abogados y médicos), dos musicales (juglares ytrovadores) y treinta y nueve oficios mecánicos. A losoficios liberales no los tiene muy bien conceptuados;así, en su “Libre de contemplació en Déu” (1274‐1276) escribe que los jueces hacen exactamente locontrario de lo que deberían hacer: condenan losinocentes y absuelven a los culpables, desviándosetotalmente de la verdad; los abogados, para tener2R. da Costa, Las definiciones de las siete artes liberales ymecánicas en la obra de Ramón Llull. Revista Anales delSeminario de Historia de la Filosofía. vol. 23, pp. 131‐164(ISSN 0211‐2337). Publicaciones Universidad Complutensede Madrid (UCM), 2006.10

honor y dinero, se esfuerzan en mostrar la falsedad alos jueces: ambos son hombres muy malos yciertamente tendrán una mala muerte. Sobre la otraprofesión liberal, la medicina, comenta: muchos máshombres mueren que los que son curados por losmédicos, debido a que ellos no tienen conocimiento desu Arte . Además, ellos trabajan con la segonaintenció, pues su mayor objetivo es juntar riquezas ytener fama. Aunque la baja popularidad de losmédicos viene de antes, porque como comentaGarcía Olmedo en su Crónica no Autorizada de unConflicto Permanente ‐En torno a la UniversidadEspañola‐3, ya Petrarca, en su Invectiva Contra unMédico, la calificaba de “perniciosa”.En cierta medida la distribución inicial decátedras de la Universidad de Salamanca, que se hizoen los estatutos establecidos por Alfonso X el Sabio el8 de mayo de 1254 (39 años después de fundadadicha Universidad) fue en contra de la corriente de laépoca porque estableció una Cátedra de Física3,incluyendo a la Medicina y a las Ciencias Naturales,que estaba entre las mejores retribuidas junto con lasde Leyes y Cánones, Lógica, Gramática y Música.Como todos conocemos, en la última mitaddel Siglo XX las Ciencias Naturales y Formales, almenos a nivel universitario, se estructuraron enBiología, Física, Geología, Química y Matemáticas. Noobstante, la reorganización de las mismas continúa3B. García Olmedo, En torno a la Universidad española.Crónica no autorizada de un conflicto permanente. 2008,http://atc.ugr.es/ aprieto/curiosidades/Cronica historia univ.pdf11acomodándose a las circunstancias del momento, deforma que nacen nuevas titulaciones poniendoénfasis curiosamente en dos aspectos contrapuestoscomo son la interdisplinaridad y la especialización querequieren la atención a nuevas demandas socialesencaminadas a la mejora de la calidad de vida. Entreestas nuevas disciplinas se pueden citar la Óptica, lasCiencias de la Computación, la Bioquímica, lasCiencias del Medio Ambiente, etc.Después de la disquisición anterior, que hatratado de poner de relieve el carácter coyuntural delas ciencias, debemos recordar que la Física trata deestudiar científicamente las propiedades de lanaturaleza con ayuda del lenguaje matemático conobjeto de describir los fenómenos naturales conexactitud y veracidad.Por otra parte, la ingeniería pretenderesolver, con creatividad e ingenio problemas queafectan a la humanidad y al medio ambiente.Tradicionalmente este objetivo se logra aplicando nte por la Física. En general, laingeniería utiliza los modelos creados por la Físicapara construir sistemas artificiales que resuelvan losproblemas que se plantean.Los objetos de análisis de la Física se centranen la materia, la energía, el tiempo y el espacio, asícomo en sus interacciones. Curiosamente unconcepto que en principio la Física no consideró comoobjeto de estudio es el de información, que sinembargo fue tratado como magnitud física por ClaudeShannon (1938, Ingeniero Eléctrico y Matemático). Lanoción de cantidad de información conecta con la12

noción clásica de entropía originaria de la macenamiento de la información es el principalcampo de aplicación de la Electrónica y el objetofundamental de la Informática, disciplinas donde seha centrado mi actividad profesional. III. PROCESAMIENTO DE LA INFORMACIÓN EN ELCOMPUTADOR Y EN EL HOMBREA continuación voy a tratar de hacer unas reflexionessobre las ideas que han dado lugar al rumbo de miprincipal línea de investigación de los últimos años.Ésta surge de analizar la forma en cómo los seresvivos procesan información en contraposición a cómola hacen las máquinas.El formalismo convencional para desarrollar unaaplicación con ordenador implica considerar tresniveles4. El primero (nivel de conocimiento), se refiereal dominio de la tarea a realizar: si queremosresolver un problema debemos de disponerde un modelo algoritmizable del mismo. Enotras palabras, es necesario poseer unconocimiento detallado de qué debe realizarla máquina para alcanzar los objetivos. Nopodemos, por ejemplo, hacer un programapara simular la evolución de un objeto estelarsi no conocemos en detalle y con precisión los4Newell, A. The Knowledge Level. Artificial Intelligence,18(1) 87‐127, (1982)13 procesos físicos y condiciones iniciales querigen dicha evolución.El segundo nivel (nivel simbólico) correspondeal de la programación: una vez conocidos losalgoritmos (o modelos matemáticos) hay queexpresarlos en estructuras simbólicasdefinidas en algún lenguaje de alto nivel máso menos próximo al lenguaje del dominio dela tarea (lo que implica un alejamiento dellenguaje de la máquina). Después, por mediode programas traductores y utilizando elpropio ordenador como herramienta,transformamos el programa en lenguaje dealto nivel en un programa en lenguajemáquina, que es el único que realmenteentiende el computador (más concretamenteel procesador).El tercer nivel (nivel de implementación ‐procesamiento), el más bajo, corresponde a lamáquina que ejecuta los programas (elordenador en sí). El ordenador transforma,según le indica el programa,datosprocedentes del espacio simbólico delproblema en resultados comprensibles endicho espacio.Como consecuencia de las consideracionesanteriores se pueden hacer las dos siguientesreflexiones: Un ordenador (o un sistema electrónico, engeneral) es totalmente inservible si no sedispone de un modelo preciso de la tarea arealizar. Es decir, debemos excluir la utilidad14

del ordenador para la realización de funcionesque carezcan de un modelo conceptualconcreto. Entre estas funciones se encuentranla mayoría de los procesos mentalesrealizados por los humanos, ya que nodisponemos del conocimiento suficiente deellos como para expresarlo en términosalgorítmicos. Así, no podríamos realizar unprograma de computador eficiente paraentender el lenguaje si no tuviésemos unmodelo formal de cómo poder efectuar dichoreconocimiento. Lo mismo ocurre con lahabilidad para percibir y analizar escenasvisuales. Paradójicamente, uno de los retosde la Informática se encuentra en desarrollarmáquinas que puedan percibir, razonar,aprender, adaptarse y actuar en entornoscomplejos de igual forma, o incluso superior,a cómo lo hacemos los humanos. Como nosiempre existe una formalización adecuadasobre cómo los humanos realizamos losprocesos cognitivos, es preciso recurrir ametodologías distintas a la clásica de los tresniveles. La escasez de modelos paraformalizar procesos cognitivos, sin duda, sedebe en parte a la falta de un lenguaje lógico‐formal eficiente para describirlos, lo queprovoca que con frecuencia nos empeñemosvanamente en utilizar los mismos lenguajesde la física (análisis matemático) y de laarquitectura de computadores (álgebra deBoole y Teoría de Autómatas Finitos).15 El ordenador, y más concretamente elprocesador, es el que ejecuta los programas.El esquema convencional de ordenador sedebe a von Neumann (1946), y esencialmenteconsiste en un sistema muy versátil querealiza unas u otras operaciones según leindique un programa en código máquinaalmacenado enla memoria del propioordenador.Comoespecialistasenarquitectura de computadores no podemosdiscutir la utilidad de este modelo, probadaexhaustivamente, pero, como científicospodemos preguntamos si no son posiblesotros enfoques o alternativas más eficientespara la construcción de sistemas deprocesamiento de la información.He mencionado conceptos sobre procesosmentales; parece obvio observar el comportamientodel cerebro, como un maravilloso sistema deprocesamiento de la información que ha sufrido unaoptimización paulatina gracias a las leyes de laevolución y de la selección natural. Podemos resaltarlos tres siguientes hechos: El cerebro es capaz de resolver problemasdifíciles de habla o de visión, como reconocerla cara de un amigo a la salida de un cine, enaproximadamente medio segundo. Este es unfenómeno sorprendente pensando que, en eltiempo de reconocimiento visual, unaneurona de la retina no emite más que unoscuantos pulsos, y que, en general, lasneuronas operan, sin considerar los tiempos16

de transmisión a través de ellas, en el rangode los milisegundos. Esta circunstanciaimplica que esas tareas complejas puedenefectuarse en tan sólo 100 "pasos" deprocesamiento, mientras que en unordenador convencional se necesitarían milesde millones de pasos (ciclos de instruccionesmáquina). Por otra parte, como he indicadoconanterioridad,noconocemossuficientemente cómo el cerebro hace elreconocimiento.Los humanos, y animales, en general,constantemente razonamos y tomamosdecisionesapropiadaspartiendodeinformación léxica e imprecisa, no es que físicamente sólo puedentrabajar con información precisa, a la postrenumérica, y con algoritmos causales.Elfuncionamientodelcerebroescompletamente diferente al de losordenadores (por cierto, antiguamentedenominados cerebros electrónicos). Elordenador es una estructura física estándar yconstante que realiza una u otra tarea enfunción de los programas que se ejecuten enél. En el cerebro, por el contrario, no hay unaarquitectura fija donde se ejecutanprogramas de instrucciones: la estructura esvariable ‐extraordinariamente plástica‐, semodifica con el aprendizaje y se adapta alentorno; es una estructura inconclusa. Pocosdiscuten que en el cerebro, el conocimiento y17las tareas cognitivas poco a poco vanestableciendo la estructura, y, a su vez, elconocimiento y actividad mental emergen dedicha estructura.Analizando los hechos anteriores, identificamosdiversas características y funciones de los seres vivosque los científicos e ingenieros tratamos de obtenercon la concepción de nuevos sistemas de información.Así, al igual que otros grupos de investigación a lolargo de todo el mundo, tratamos de emular ciertosprocesos naturales de los seres vivos mediantesistemas artificiales. Esta línea está dentro de unacorriente interdisciplinar entre la neurociencia, física,matemáticas, informática y electrónica que buscaestablecer modelos de procesos naturales y construirSistemas inteligentes de computación (o SistemasBioinspirados) que pretenden imitar (más o menosfidedignamente) la forma en que el hombre, losanimales y otros sistemas biológicos procesan lainformación, evolucionan o aprenden procedimientospara resolver problemas.Entre las principales metodologías que utilizamosse encuentran: La Neurocomputación, que ofrece la posibilidad dediseñar redes de neuronas artificiales con se, adaptarse e identificar. La Lógica difusa, que incluye el cuerpo deconceptos y técnicas para tratar con laimprecisión, la granularidad de la información, elrazonamiento aproximado, y, sobre todo, paracomputar con palabras.18

La Computación evolutiva, que da la posibilidad dela búsqueda aleatoria sistematizadacon laconsecución de un rendimiento óptimo y eficientemediante algoritmos que emulan ciertos aspectosde la evolución biológica: cruzamiento, mutación,y supervivencia y reproducción de los organismosmejor adaptados. La Computación reconfigurable, que pretendeconstruir sistemas con plasticidad en los que, porejemplo, su hardware (circuitos interconectados)pueda adaptarse dinámicamente y en tiempo realal entorno, o reconfigurarse ante un fallo dealguno de sus elementos con objeto de seguirfuncionando aunque sea con prestaciones máslimitadas.IV. ALGUNAS APORTACIONES COMO EJEMPLOPara ilustrar las posibilidades de investigación dentrodel campo de los sistemas bioinspirados, acontinuación voy a referirme brevemente a algunosde los trabajos desarrollados en el grupo deinvestigación que dirijo. Como veremos nuestrotrabajo se han centrado más en aspectos prácticos,aunque también hemos abordado cuestionesteóricas.Una red neuronal artificial (RNA) es unsistema dinámico formado por unidades deprocesamiento no lineales (neuronas o nudos) en lasque la información a procesar se transfiere a travésde ellas por medio de interconexiones ponderadas(sinapsis o pesos).La solución de problemas de optimizacióncomplejos es uno de los campos de aplicación más19relevantes de los sistemas bioinspirados. Entre estosproblemas se encuentran aquellos en que para llegaral resultado se requiere un tiempo que crece deforma exponencial con el número de variables deentrada a considerar. Una contribución5 de nuestrogrupo consistió en modificar el modelo de RedNeuronal de Hopfield para ampliar el conjunto defunciones objetivo con forma no‐lineal que se puedenproyectar en ella. La función objetivo es consideradapor la red neuronal como una función de energía que,como en cualquier proceso físico, se va desplazandohacía un mínimo en el espacio de energías el cualcaracteriza la solución del problema de optimización.Este procedimiento lo aplicamos con éxito al diseñode circuitos para test en‐línea en circuitos digitales enlosquelassalidassoncomprobadasconcurrentemente con el funcionamiento normal delcircuito.Otra de nuestras aportaciones6 de sumointerés se encuentra la deducción matemática de unamedida para la tolerancia a fallos y la capacidad degeneralización de redes neuronales organizadas encapas tales como los perceptrones multicapa (MLP,Multi‐Layer Perceptron) y las redes de base radial.5Ortega, J; Prieto, A; Lloris, A; Pelayo, FJ. Generalizedhopfield neural‐network for concurrent testing. IEEETransactions on Computers, 42(8) 898‐912, (1993).6Bernier, JL; Ortega, J; Ros, E; Rojas, I; Prieto, A. Aquantitative study of fault tolerance, noise immunity, andgeneralization ability of MLPs. Neural Computation, 12(12)2941‐2964, (2000).20

Dicha medida, a la que hemos llamado sensibilidadcuadrática media, permite evaluar cuantitativamentela capacidad de generalización de una red, así comosu tolerancia a fallos, a partir de los valores de susparámetros. Esta medida nos ha permitido tambiénmejorar los algoritmos de aprendizaje de forma quecon nuestro método se obtiene redes con mayortolerancia a fallos ysuperior capacidad degeneralización.Es comúnmente admitido que en los humanoslas distintas señales sensoriales de entrada (visuales,táctiles, auditivas, etc.) son proyectadas, de formatopológicamente ordenada, en áreas especificas de lacorteza cerebral, formando auténticos mapascomputacionales. Según este sencillo modelo lasneuronas transforman las señales de entrada ensalidas que siguen una distribución de ónrepresenta los valores computados en las posicionesdonde se obtiene una actividad máxima 7. SegúnTeuvo Kohonen8 el origen de los mapas cerebralespuede encontrarse en la búsqueda de unarepresentación económica de los datos y de susinterrelaciones, lo que también constituye uno de losobjetivos centrales de las ciencias de la información.Este investigador estableció como objetivo construir7von der Malsburg, C. Self‐organization of orientationsensitive cells in the striate cortex, Kybernetik, 14, 85‐100,(1973).8Kohonen, T. The self‐organizing maps. Proceedings of theIEEE, 78, 1464‐1480. (1990).21artificialmente mapas auto‐organizativos (SOM, Self‐Organizing Maps) que aprendan a través de auto‐organización de una forma biológicamente inspiradaen los mapas cerebrales. En particular, el principalobjetivo de estos mapas es transformar un conjuntode patrones de entrada de dimensión arbitraria en unmapa discreto, usualmente de do

Academia de Ciencias Matemáticas, Físico‐Químicas y Naturales de Granada EMULAR LA NATURALEZA, ADEMÁS DE OBSERVARLA DISCURSO LEÍDO EN EL ACTO DE SU RECEPCIÓN COMO ACADÉMICO NUMERARIO POR EL ILMO. SR. D. ALBERTO PRIETO ESPINOSA GRANADA, 2008