AndyBlog's Index
Acerca de Mi
Currículum Vitae
Cronología Paso a Paso
  Vicisitudes
Conocimientos y Gustos
Actividad Profesional
Cosas Funcionando
  Diccionarios por Celular
  Un Profe. de Matemáticas
Proyectos
  Diccionario de Acrónimos
  AndyBot (un ente virtual)
Que Pienso
Desafíos de un ente
  1º Saber Leer
  2º Lectura Robusta
  3º Lógica y Matemática
  4º Entender lo Escrito
  5º Deducir Cosas Simples
  6º Incorporar Conocimientos
  7º Dilogar y Responder
  8º Aprender y Pensar
Publicaciones y Patentes
  Charlas & Conferencias
  Cuentos y Poesías
 

Andres Tomás Hohendahl


View Andrés Hohendahl's profile on LinkedIn Twitter La caja de Pandora Google Académico
Acerca de Mis Orígenes
Nací en una fría mañana setiembre de 1959, más precisamente el miércoles 16, (en aquella época en Buenos Aires, el invierno derramaba su frío manto hasta bien entrada la primavera). El evento singular ocurrió en el Hospital Alemán, de una mamá, hija de sendos padres alemanes y, un papá también muy alemán; (que quede claro: no tengo ascendencia gallega, india, africana, hopi, ni china!) Obviamente resulté un tanto rubio (aunque las implacables canas ya se están infiltrando, luego de mi medio siglo) Tengo los ojos celestes y, como si esto fuese poco... según mis amigos: cara de chucrut.
Encima luego de nacer y antes de poder decir palabra alguna, me llevaron a vivir en Alemania.
Ah! me olvidaba contarles que después de llorar un poco, llenar infinidad de pañales en varios idiomas, mis primeras palabras fueron.. todas preguntas. Me cuentan que desde muy chico le rompí la paciencia a todo el mundo, matándolos a preguntas sin piedad. Dicen que me calmé algo cuando al aprender a leer, (lo hice yo solo..), descubrí que algunas respuestas estaban como dentro de los libros. Así fue que me puse a estudiar (tal vez algo de más) y por sobre todo me puse a hacer las cosas que me gustan, quizá demasiadas, y bien!. Hoy mi humanidad ronda los 1.91m y cerca de 100kg (IM < 25).


Estudios
Viví en en Alemania desde bebe, allí aprendí: Cubos I, Chiches I y II, Preguntas Insufribles en alemán II, Origami I y II, Papel Maché II (jardín de infantes), (Argentina) Primaria en 7 actos (1º a 7º grado, como en aquel entonces); Cerámica (taller), Piano (conservatorio hasta 4º año) Sipalki-do (cinturón marrón), Secundario (industrial en 6 años) culminando como Técnico Electrónico en la especialidad de Servomecanismos (ENET28) luego me fui derechito a la facultad, siendo actualmente Ingeniero Electrónico de la UBA.  Hablo alemán (nativo: 2 dialectos), y aprendí inglés desde muy chico (kindergarten), antes de aprender bien español, luego seguí estudiando inglés en la Asoc. Arg. de Cultura Inglesa); tengo conocimientos básicos de: Portugués, cursé un año de francés y alemán (gramática y escritura) en la facultad, y me defiendo algo en Italiano  Durante mi época de gurrumín estudioso universitario, entre los 18 y 28 años, fuí investigador técnico contratado del IIBM (Instituto de Ingeniería BioMédica) Allí, por suerte, hice muchos cursos y participé de numerosos seminarios en diversas especialidades como programación y simulación de sistemas biológicos, entre otras áreas específicas de medicina como ser fisiología, neurología, óptica y acústica, redes neuronales, neurobiología y genética, además de algo de inteligencia artificial, extracción de información y procesado de imágenes digitales y de procesamiento del habla (lo poco que se sabía y hacía en ese entonces, pues era todo muy incipiente).

Paso a Paso

Trabajé desde muy chico (a los 8 años ya por deporte), ya desde los 16 años me pagué todos mis estudios trabajando, mi padre fue un brillante y laborioso empleado de comercio (gerente de casa Tía durante 35 años) y mi madre una ama de casa muy eficiente y abnegada, por lo que nunca me faltó nada (tampoco me sobró), aprendí de este modo el valor del trabajo y esfuerzo; sabiendo lo que es ganarse la vida desde muy chico. Al principio en forma casi simbólica (trabajar 'de mentirita' reparando juguetes en Casa Tía, para comprarme mi primer reloj pulsera a los 8 años, eso me llenó de orgullo). ver más


Algunas Vicisitudes
Durante mi carrera, mientras trabajaba en el IIBM , estando aún en 4º año de ingeniería, en un TP de la materia Instrumentos Electrónicos, me dieron una asignación medio rebuscada, (pues no figuraba en literatura alguna), tal vez porque yo les resultaba un poco pedante (seguramente lo era) y a veces parecía que supiera algo de más, siendo mal visto por algunos malos docentes. Lo que no contaban era que eso lo resolví de un modo muy simple y pavo un año antes que me lo requirieran en mi casa, así que para cuando lo presenté no sin tener resistencia por no estar en los libros, el Ing. Mariani (otro capo), con buen atino, me alentó que eso era realmente un invento original y lo presentara en un Congreso. Finalmente en 1985 lo publiqué junto a un compañero de estudios, Claudio Rodriguez, en Argencom'85. Luego fue seleccionado para ser presentado y finalmente pasó lo inesperado: ver más


Mi Tesis de Ingeniería (Electrónica-Facultad de Ingeniería Universidad de Buenos Aires), trata sobre "Comunicación Hombre-Máquina mejorada con Inteligencia Artificial " , la cual hice en mis tiempos libres, mis directores de tesis el Dr. José F. Zelasco  y el Dr. Ing B. Zanutto (unos capos) y en el 2006 fuí invitado a formar parte como tesista del Laboratorio de Estereología y Mecánica Inteligente de la Facultad de Ingeniería de la UBA, (sito en el subsuelo de la Facultad, sede de Paseo Colón 850, Capital.) Me interesé mucho y hasta me apasionó el investigar en Inteligencia Artificial con el fin de mejorar la capacidad que tienen hoy las computadoras de "pensar" y "entender cosas de humanos" para interactuar con nosotros.

De allí salieron algunos trabajos de investigación publicados y otros tantos que aún no publiqué.
Cabe destacar que todo lo publicado fue implementado y está funcionando en diversos lados, lo interesante es que impuse metas "normales" de cosas que creo necesarias, según mi criterio y del desarrollo de las mismas, salieron varios trabajos originales (un tanto raro no?) Comencé a publicar en el año 2006 primero en congresos locales lasta lograr trascender fronteras con una publicación de junio del 2010 fue aceptada en un congreso Lisboa, Europa, más precisamente en el INSTICC2010. Luego en el 2011 presenté dos trabajos en el Congreso Internacional ProLen "Procesamiento de Lenguaje", que se celebró ese año en Buenos Aires, Argentina.

Durante todo el 2009, a raíz de un requisito que tuve de la industria, estuve trabajando en un proyecto para unir todas las rutinas, algoritmos y creaciones anteriores en algo que sirva para alguien más y se convierta en un producto comercial. La idea era que cualquier empresa pueda crear un sistema de diálogo inteligente "sin saber programar", y solamente sabiendo cómo se dialoga normalmente (preguntas y respuestas) así nació La Plataforma de Diálogo DDL.

Conocimientos y Gustos
Música (Conservatorio de Piano, Flauta Dulce), Atletismo y Sipal-Ki-Do, Fotografía, Cerámica y Alfarería, Pintura y Dibujo, Electrónica, Computación, Redes, Programación, Algoritmos, Matemáticas, Estadística, Física, Diseño Gráfico y Web, Ciencias Naturales, Zoología, Biología Bio-Química y todo lo relacionado a la Medicina (autodidacta), Coleccioné cuanta boludez podía clasificar y guardar, desde minerales hasta boletos, billetes y estampillas, por suerte me calmé con el tiempo, antes de llenar mi casa, ahora colecciono conocimiento, que no ocupa lugar, pues uso el mismo sombrero hace rato. Como me gusta comer rico, aprendí a cocinar. Me encanta la naturaleza y por eso saco muchas fotos. Algunas de mis fotos fueron publicadas y hasta me rebusqué un tiempo jugando a ser fotógrafo pues hice una parte de la producción de postales para el tri-centenario (300 años) del partido de San Isidro (en Buenos Aires, Argentina) en el año 2006 y además me compraron fotos de algunos bichitos y plantas, de su Reserva Ecológica Norte, en San Isidro.

Aprendí a programar desde los 16 años en casi todos los lenguajes de computación a mi alcance, arrancando de los básicos como Assembler incipiente del intel 4004, el SC/MP, lueog intel 4040 y 8080, Zilog Z80 / intel 8085 / motorola 6800 / 6809 / Rockwell 6502 / para leugo llegar al x86. Programé lueo en lenguajes de alto nivel como Pascal, C, C++, Java, y hoy uso C# (.NET), hice algo en JavaScript y uso Python para enseñar Inteligencia Artificial. Actualmente me siento cómodo programando en Java y C# bajo entorno .NET (Visual Studio). También usé Eclispe para probar cosas en Java, Java2ME y usé JavaCreator 2.5 como entorno de pruebas y tracing, programé sistemas complejos usando Servlets en Contenedores Java, NetBeans, y otras excentricidades, para no quedarme sin saber lo último. Me interesa la filosofía Open Source pero no soy devoto y muchos trabajos los mandé "free" a la web, y como nadie paga por código que se puede bajar libremente y modificar a voluntad, finalmente me incliné por el tema de licencias que me dan hoy de comer.

Me apasionan la criptografía y la seguridad informática, y las cosas más raras como los compiladores de lenguajes nuevos (de hecho escribí uno.. y lo más sorprendente para mí es que funciona..)  Investigo alctualmente los mecanismos para crear software automáticamente, como compiladores y lenguajes avanzados, quiero crear algo que quizá aprenda a plantear y resolver cosas por sí mismo, es decir autoprogramarse (y.. en eso estoy) tipo que entre una fórmula hablada y el tipo programe eso.

Hace un tiempo, haciendo introspección, (es más barato que el psicoanálisis... posta!) descubrí que me gusta escribir (y.. vaya que me gusta.. con este interminable chorizo de página...) y entonces, para dar rienda suelta a la pluma, la dejé volar (literalmente) en un taller de Escritura Literaria con la Lic. Bea Lunazzi, una aguda crítica literaria y excelente poetisa. Hace poco recopilé mis cuentos, poesías e historias y me sorprendí por su número, lo cual me incita a publicarlos, cosa que aún no he decidido, dado que siento que estoy jugando a ser un escritor de verdad.. o tal vez de ficción?, bueh! como quiera que me salga, hago ficción, SciFi, cuentos fantásticos, alguno policial y de terror.

Cuentología y si alguien se atreve un día a querer leer alguno de ellos, tan solo me manda un email, me dice cual y se lo envío sin cargo.. (de conciencia)


Actividades Empresariales
Soy el titular de una empresa llamada PandoraBox en donde se trabajó mucho en desarrollos de software para servicios de tecnología orientados a telefonía celular y aplicativos especiales con AI. Tenemos un servidor que actúa como (gateway) que se conecta (de hecho lo está) con todos los operadores de telefonía celular de Argentina y varios países, en casi todos los protocolos existentes, permitiendo una rica interacción para brindar servicios hasta trasnacionales. Estos servicios suelen ser tipo ASP y últimmente SaS y permiten a los celulares interactuar con todas las tecnologías.
Algo de eso se puede ver en el sitio oficial, aunque por decirlo suavemente, es demasiado técnico, lo único entendible fácilmente está en la parte de Servicios, hoy está como antecedente y me dedico a Inteligencia Artificial, y como es tan complicado no hice sitio web, lo ofrezco directamente:
www.pandorabox.com.ar

Co-fundé y co-dirigí (1988/2001), una Agencia de Publicidad Mercurio Arte y Gráfica en donde tratamos de aportar a la comunicación entre fabricantes de productos muy técnicos y sus clientes. Tuvimos éxito pues el enfoque de la comunicación con una acabada dosis de buen gusto alternada con rigurosidad técnica, es imbatible a la hora de vender. Por esto es que tuvimos algunas menciones: (1º premio Fematec 1995)

Desarrollé y diseñé Micrófonos Profesionales a condensador entre el 2000 y el 2004 en USA www.theaudio.com (ver patente), empresa de la cual me hallo actualmente desvinculado.

En el año 2009 junto a un grupo de banqueros, fundamos la empresa Moneybox s.a., de la cual soy presidente. Esta Empresa está dedicada a transferencias de dinero mediante tecnología inteligente usando dispositivos móviles (celulares), entre otros. Va dirigida al segmento de usuarios que tienen un celular y no desen llevar tantas tarjetas de crédito y dinero en efectivo para pagar un taxi, un delivery o un kiosco. Entre los socios, contamos con el dr. Horacio Liendo, un prestigioso un ex-presidente del Banco Central de la República Argentina.

En el año 2015, con un grupo de conocidos fundamos IAAR, que son las siglas de Inteligencia Artificial Argentina, con ellos organizamos Meetups, cursos y últimamente nos han convocado desde Gobierno y Ministerio de Educación como apoyo desde la sociedad civil para fomentar la Inteligencia Artificial.

Actualmente doy charlas por todos lados, soy como un evangelizador de Inteligencia Artificial, lo cual me llevó a dar cursos desde a simples mortales hasta graduados y grandes empresas.

Cositas Interesantes Funcionando
Son una pequeña muestra de desarrollos incorporando algunos de los resultados tangibles resultantes de mi trabajo de investigación y desarrollo.
Estos sistemas están funcionando actualmente, en Argentina


Profesor de Matemáticas (Supercalculadora científica y estadística que resuelve y evalúa desde fórmulas simples y encadenadas, hasta derivadas e integrales literales, por SMS) funciona enviando un SMS anteponiendo MATE (espacio) y luego la expresión al núero corto 55588 (Argentina, $0.50+imp)
Manual de Uso.

Diccionario Traductor (Español-Inglés, Inglés Español y Español-Español)
El sistema está funcionando en Argentina desde nov'2007, es usable desde cualquier teléfono móvil y no requiere suscripción, solo cobra un importe como cuando se manda un mensajito SMS a una radio (un poco mas que un mensaje de persona a persona), Esta funcionado con los operadores Claro, Personal, Nextel y Movistar; y desde oct'2005 funciona en Ecuador en exclusiva para Movistar.
Explicación detallada.

Proyectos Destacados
Esta es la sección en la que detallo las cosas que están en proceso, o cerca de concluirse, en especial las que me demandan mayor esfuerzo y apasionamiento.

Diccionario de Acrónimos de Ingeniería, Telecomunicaciones y Sistemas (son esas palabras y siglas difíciles que nos atormentan día a día, explicadas, este producto está en preparación y ya cuenta con mas de 4000 términos explicados, con un total de aprox. ~4500 acrónimos explicados con en un promedio de 20 palabras por cada término.)
Muestra Preliminar

Plataforma de Diálogo (Sistema de Desarrollo para Agentes Inteligentes) Ideado para crear fácilmente entidades inteligentes que puedan entablar una conversación en lenguaje natural (castellano, inglés u otro) con una persona, incluyendo corrección de ortografía. (ver el desafío #7)
Documentación Preliminar

Que Pienso
La humanidad ha visto una cantidad abrumadora de avances en los últimos años, la computación junto a internet han revolucionado la manera de pensar al punto que 'googlear' está pensado ser aceptado como un verbo por la Real Academia Española. A mi entender hay grave un problema latente, las computadoras hoy son capaces de calcular miles de millones de cuentas matemáticas y decisiones lógicas por segundo pero no pueden entender una simple frase como "mañana a las cuatro avisame que tengo turno con mi dermatólogo". En esa dirección me dirijo con mis investigaciones y creaciones, para llegar algún día a que la interfase con una máquina no sea más que indicarle (como a cualquier humano inteligente) las cosas que necesitamos y que las "entienda" y resuelva como sabe o sino: que aprenda o nos pregunte!

Actuales Desafíos
En esta sección enumero un conjunto de desafíos o metas que me planteé cuando comenzé a trabajar en Inteligencia Artificial aplicada al lenguaje NLP (Natural Language Processing). Consiste en una enumeración simple de hitos y propuestas en una ruta de trabajo por la cual me estoy moviendo, por cierto con bastante entusiasmo. Es una especie de búsqueda del Santo Grial, en estas ciencias



1º Desafío
Aprender a Leer
Que una máquina pueda leer texto natural (mente?) y procesarlo conforme a su contenido, significado o sintaxis (no solo guardarlo en una base de datos o imprimirlo) se denomina Procesamiento de Lenguaje Natural (en inglés Natural Language Processing o NLP) esto que parece tan simple y obvio, como lo es el texto natural en un idioma en cual todos hablamos y escribimos naturalmente, no es así. Esto requirío el tener que adentrarme en esto y aprender esta rama un tanto extraña de las ciencias llamadas de "borde" pues no son ni lingüística ni computación puras, sino una maquiavélica combinación difícil de abordar. Allí me desayuné que no es nada fácil hacer cosas con palabras (textos). En computación los textos son de las entidades más básicas, representadas como cadenas "strings" de caracteres, que a su vez son representados por códigos numéricos (ASCII y otros) luego no tienen un tratamiento funcional, lo únco que hay nativamente es poder ordenarlas por orden alfabético, cortarlas y concatenarlas, contar las letras y compararlas. (y con bastantes bemoles). Inicialmente un incauto (como lo fui yo) pensaría que todo se soluciona simplemente yendo a un diccionario muy lindo y ordenadito.. Suponiendo que exista,.¿que se halla allí?.. Rta.: más palabras, tal vez códigos o clasificaciones de todo tipo y sin un mecanismo riguroso ni estándar (la mayoría en palabras y abreviaturas), el tema central es ¿que hacer con eso?
Como si esto fuese poco, los diccionarios habituales, (incuso los electrónicos) solo tienen las formas raíz o canónicas (en castellano y en otros idiomas muy flexivos, los diccionarios solo contienen los verbos en infinitivo, los sustantivos y adjetivos en singular y masculino, etc.) y casi nada de palabras flexionadas: verbos conjugados, adjetivos y sustantivos en plural, femenino, peyorativo o diminutivos y sus combinaciones válidas. En ejemplo es el término camionetitas, éstas palabras y otras flexionadas, son muy frecuentemente usadas en el habla cotidiana, pero conforman la pesadilla del profesional de NLP, pues no existen en diccionarios de ningún tipo conocido, salvo en bases de datos morfológicas que son rarezas universitarias y no salen de allí.
Además estos diccionarios serían tan extensos que ocuparían decenas de tomos, o tal vez toda una biblioteca. Esto es por que su número es una combinación de hasta decenas de conjugaciones verbales con miles de prefijos y sufijos de variado origen, combinables de múltiples maneras, su número es de varios cientos de millones y resulta inmanejable como fuente de información e inviable de administrar. Además, para complicar más aún el tratamiento, el ser humano crea constantemente nuevos términos usando la llamada parasíntesis (uniendo múltiples prefijos, infijos, sufijos con raíces para crear términos, basados en la semántica o significado de sus partes y una necesidad concreta de nombrar algo nuevo) Esto es usual en medicina y en ciencias, al crear lso nombres de patologías, enfermedades, nombres de especies, etc. allí se usan recursos latinos mezclados con nombres propios honrando los descubridores.
Esta tarea se llama lematización (hallar el lema o raíz) morfosintáctica (pues halla las partes morfológicas) robusta (pues tolera errores comunes) y luego determina u obtiene la función sintáctica de la palabra, si es verbo, sustantivo, adjetivo, adverbio, artículo, pronombre, determinante, preposición, fecha, hora, nombre propio y/o entidad nombrada (NE: Named Entity), si es una abreviatura y de qué, si es un nexo, puntuación, unidad física, un número una fórmula matemática o de química y/o ingeniería; además de algunas cosas más que hacemos cuando leemos un texto. Todo esto no es para nada trivial ni unívoco y requiere de una cantidad importante de cálculo y proceso cuidadoso, mucho del cual no hay métodos famosos, conocidos ni estándard y las opciones se multiplican peligrosamente. Estos problemas caen fácilmente en categorías de resolución conocidas como de tiempo exponencial, NP-duros o resoluble con una cantidad combinatoria de pasos, lo cual no puede calcularse en un tiempo polinomial, es la base definida para los problemas llamados irresolubles, hasta tanto alguien aporte una solución. Esto es suficiente desafío para enloquecer a muchos y animar a los más arriesgados (como yo). ver avances




2º Desafío
Bendita Ortografía
Tratar de reconocer bien palabras mal escritas de un texto a granel y libre, es un gran problema hasta para los humanos. Tratar de inferirlas, y tal vez averiguar el idioma aún sin conocer las palabras , es más complejo aún. Se hizo uso de una idea original presentada en WICC2006 para inferir y saber cuándo están mal escritas y dónde fallaron, si están formadas por palabras con uno más prefijos y sufijos (en español hay demasiados), saber si son verbos conjugados, si tal vez sean irregulares o no, reparar y reconocer los errores comunes de ortografía y tipeo; estos son todos problemas serios.
Los Horrores de ortografía: son ciertamente una pesadilla para los que trabajamos en NLP pues el tratamiento de estos errores no es para nada trivial, complicando las cosas con el tiempo de búsqueda de formas flexionadas o derivadas (palabras conjugadas) no es tampoco trivial (quien cree que las bases de datos relacionales mas avanzadas, con sofisticados lenguajes de acceso como SQL, son una solución... lamento mucho comunicarle que está muy lejos de hallarla).
Para peor, pues cuando se procesan las palabras (llamadas strings en jerga de computación) hay mucho problema cuando una letra no es la misma, o está permutada, pues la gente escribe mal, pero muy mal!.
No solo esto, cuando un humano lee, lo hace casi salteando las palabras enteras con letras cambiadas y hasta faltantes, tampoco depara en detalles como acentos. Esto es humillante para los que programamos, que no teníamos métodos para solucionar esto... hasta ahora..!.
Lograr un tratamiento decente de estas cosas, en tiempos razonables y con recursos limitados de espacio, velocidad y memoria una PC de escritorio, no es tampoco trivial ni sencillo.ver avances

einstein
3º Desafío
La Lógica y las Matemáticas
El sistema debiera además de saber realizar cálculos de Matemáticas y Lógica, planteados en lenguaje natural, como ser dos mas tres por cuatro. y por supuesto en lenguaje de expresión 2+3*4
La idea no era que solo resuelva cuentitas... se me ocurrió hacer un ente que sea en funcionalmente equivalente a una calculadora pero que en su devolución "enseñe" matemáticas de paso, es decir no solamente resuelva los cálculos que se le pidan, sino que explique algo, explique y/o pida aclaraciones cuando se le plantean problemas con errores. Esta super-calculadora se convirtió en el proyecto de un "profesor de matemáticas, o asistente" llevándola a saber calcular casi todas las funciones científicas usadas en las ciencias (ingeniería, física, química, probabilidad, estadística y matemáticas).
No contento con eso, le agregué un factor un tanto útil e interesante: es que pueda calcular con literales 'x', 'y', 'z'... si exactamente eso!, saber resolver ecuaciones como x²+ax+b despejar variables y hacer cálculos de algebra lineal, cálculos con complejos, vectores y matrices, puede hacer cosas de análisis matemático como derivadas e integrales, expansiones de funciones en polinomios, sumas de series y muchas cosas más. Además hasta sabe calcular con números romanos, sacar mínimo común múltiplo y máximo común divisor, saber calcular y factorear números primos grandes, maneja un número ilimitado de cifras exactas (tiene una precisión tan grande como se desee), actualmente fue limitado a 1000 dígitos internamente, por la longitud máxima práctica de un número para ser usado, por ejemplo en cálculos de claves en criptografía. ver avances



desafio
4º Desafío
Entender lo Escrito
El tema era lograr que una máquina entienda texto (Comprensión Artificial / Machine Understanding).
Para entender un lenguaje es necesario primeramente definir o adoptar un modelo de representación de conocimiento y procesamiento de ideas o pensamiento, me basé en uno de los mas parecidos al pensamiento humano que es predicado por la lengua como panacea: las partes de la oración.
Como nosotros usamos una gramática para hablar y formar las oraciones en forma no caprichosa, sino medianamente entendible, decidí usar la artillería del conocimiento lingüístico para atacar este frente, lo mas apropiado (estimé) era un Parser / Compilador.
La idea subyacente es que el lenguaje escrito es una manera de representar las ideas, y por cierto éstas se encuentran ciertamente dentro del lenguaje escrito; la contracara es que éste es interpretado hasta ahora solamente por las intrincadas reglas de comprensión humanas, las cuales no son para nada obvias ni programables. Teniendo en cuenta además que la gramática de cada lengua es una manera de sistematizar la comprensión y es usada para enseñar la lengua misma, es que parti de esto conceptos como piedra fundamental para esta etapa.
Lo más parecido a hallar la estructura de la oración es definir la gramática española en términos cuasi-matemáticos-lógicos gracias a Chompsky, Backus y Naurus y proceder con las herramientas indicadas en computación para lidiar con gramáticas que son los compiladores y parsers. ver avances



5º Desafío
Deducir cosas Simples
Lograr que este ente pueda razonar básicamente, es decir deducir cosas lógicas, además de hacer cálculos matemáticos y lógicos, basados en evidencias directas obtenidas a partir del texto de consulta. A lo que apunto es que se le pregunte: ¿cuanto son un prodzik un gato y dos prodziks? y conteste simplemente esto: tres prodziks y un gato ¿que más? (ademas este 'ente', no tiene la más remota idea de lo que es un prodzik, pero infirió por la forma de pregunta que son enumerables) (adelanto: esto ya está funcionando... y no está pre-programando, lo deduce compilando la pregunta e introduciendola en el run-time cognitivo.) ver avances



6º Desafío
Incorporar Conocimientos
En esta etapa, lo importante es crear un sistema del tipo enciclopédico: con conocimiento de "base" como ciencias, química, historia, física, matemáticas, y demás. Para el caso de química y bioquímica, es interesante poder incorporar nombres de elementos y productos químicos industiales, médicos, farmacéuticos, nombres de enfermedades, patologías, diccionarios especializados, y toda la ciencia junta. Para ingeniería introduje todas las fórmulas de las unidades tanto internacionales como las demás, conformando un paquete importante con capacidad de hacer cálculo entre unidades y conversiones automáticas.
Lo importante no es cuanto sin como hacerlo y crear un estándar para que alguien mas pueda agregar conocimiento usable por un ente inteligente como el que se está creando. avances




7º Desafío
Dialogar con Humanos
El desafío es lograr que este ente pueda interpretar texto libre y hacer algo con esto, contestando a un humano, luego de un análisis gramatical y semántico, tal vez entrar en un sistema de lógica de razonamiento simple, con reglas y usando información previamente obtenida o almacenada. (se lo suele llamar sistema experto) con la enorme diferencia que se le pude interrogar en lenguaje natural, pudiendo deducir datos basados en reglas a partir de datos de entrada "dichos" mediante texto.
La principal motivación fue la de mejorar relaciones con los sistemas de información, tornándolos más humanos y amenos,. Sin duda es mas fácil preguntar a un 'personaje' inteligente del mismo modo que a una persona coloquialmente, sin tener que aprender compulsivamente mecanismos como ser sintaxis lógica para buscadores u otros lenguajes como SQL, etc.. ver avances


8º Desafío
Aprender y Pensar
Aún no me queda muy claro que demonios es pensar ni cómo funciona eso que hacemos todos los días los humanos, pero la idea es crear mecanismos de aprendizaje a partir del texto leido unido a conocimiento de base, con capacidad de memoria y sin intervención humana alguna.
Esto podría ayudar a crear un ente inteligente capaz de no solamente entender una frase y relacionarla con lo que sabe sino poder hacerse de un conjunto de conocimientos interrelacionados y tener un modelo mental de memoria y deducción.
Si bien hoy ya hay sistemas de razonamiento basado en reglas (OWL y otros), la idea es que el aprendizaje sea progresivo y auto-sostenido como un niño de corta edad, aprende un par de palabras y con éstas, mas pruebas y errores logra un aprendizaje mas sofisticado, logra categorizar muchas cosas, diferenciarlas y especializarse en aprender algo, transformándose en un ser cada vez más inteligente con el tiempo.

Éste será el desafío (el mayor), al crear un sistema básico con estas capacidades, será el proveer a este ente de capacidad de aprender, interrelacionar y tal vez hasta hacer auto-análisis, recategorizando y revalorando cosas previamente aprendidas y tal vez hasta tener imaginación creativa (... tal vez hasta soñar..).
Estas capacidades debieran de proveer a este ente de un "sentido común" que le permita entender y desambiguar frases en situaciones dadas obajo contextos varios. Tal vez hasta decidir por sí solo si un determinado texto (en un cierto entorno) tiene sentido, es posible o resulta una total estupidez y en cualquier caso poder explicar porque llegó a esa conclusión.(el método sería deduciendo / preguntando / consultando su propio conocimiento y opcionalmente bases de conocimientos externos ( tal vez en internet) o tal vez, consultando con otras personas o conversando con otros entes especializados.. similares a él.

La idea final es el llegar a un estadio tal, en el que este ente pueda leer una novela policial y para cuando haya avanzado lo suficiente, inferir o deducir quien cree que es el asesino, explicando las razones que lo llevaron a deducirlo (siempre que no sea el mayordomo). ver avances


Conclusión
En definitiva éste o sus partes constitutivas, serán mi granito de arena de aporte al conocimiento e inteligencia de la humanidad ¿o tal vez sea el nacimiento de una nueva forma de inteligencia? - Una que un día nos vea como nosotros vemos hoy a las amebas e insectos,
(especies emparentadas de las que tenemos ancestros comunes y ADN)
....

El averiguar como hacerlo, ciertamente es apasionante y en eso estoy.. pavimentando el camino!


¿el resultado?...

- no lo sé.. pero ciertamente el tiempo nos lo dirá..

- O tal vez un día este ente mismo abra la Caja de Pandora..

La caja de Pandora

Publicaciones Recientes y Patentes
Algoritmos Eficientes para detección temprana de errores y clasificación Idiomática
WICC2006
Lematizador Morfosintáctico y Flexionador con Algoritmos Eficientes para Lenguajes muy Flexivos como el Español CACIC2006
Preamplificador para Micrófonos (USPTO-USA) Patent Nº 7,072,478 (texto)
El Micrófono, último Nexo con la Realidad Acústica AES2006
Sobre la Inteligencia de las máquinas, Revista Entelequia Nº174 (nov-dic 2008)
Que es Procesamiento de Texto Natural (NLP) (díalogo coloquial)
Desarrollo de un Algoritmo para la medición del grado de similitud fonética entre formas escritas (X Congreso Latinoamericano de de Neuro-Psicología SLAN2007)
Robust Morphologic Analyzer for Highly Inflected Languages NLPCS 2010 (presentation)

Sistema de Información Turística Móvil (Usando SMS en la Argentina)

Un Móvil para la Educación (sobre el uso de telefonía móvil en educación a distancia)
Aprender Buscando Información (el rol de la búsqueda de información en la Enseñanza)
Agentes Inteligentes (para que sirven y como se comparan con otros sistemas)
Educación con Agentes Inteligentes (como se puede usar los Agentes en la Enseñanza)
Sistema de Desarrollo de Agentes Inteligentes (un sistema para crear Agentes por la web)
Procesamiento de Lenguaje Natural Robusto (ProLen2011)
Plataforma para Desarrollo de Agentes Inteligentes (ProLen2011)
Jornadas de Tesistas de Ingeniería Electrónica (Fi.UBA, julio 2011) programa
Tesis (2014) "Detección y Corrección de Errores de Ortografía"
"Estado del Arte en Corrección Ortográfica - (Revista Coordenadas/COPITEC - agosto 2015)"
"Qué es la Inteligencia Artificial - (COPIME/La Revista Nº37 - Septiembre 2018)"

Nota: Todo lo comentado como avances, está cristalizado mediante sistemas, con librerías y utilitarios programados bajo .NET usando C#. El proyecto, comenzado en el 2005 ya en 2017 contaba cerca de 650 mil líneas de programación distribuidas entre decenas de módulos y bibliotecas funcionales. Construimos las necesarias utilidades para mantenimiento y creación de los diccionarios flexivos. Tenemos lo necesari para construir sistemas de Diálogo muy superiores a los conocidos ChatBots. Poseemos los recursos lingüísticos para procesar texto en forma robusta, incluyendo un corrector fonético-ortográfico, que entiende españól como si fuese un humano, "entendiendo neologismos parasintéticos que no están en diccionario alguno" que reconoce más de 300 millones de palabras, contando con 115k lemas soldados con 5 mil reglas morfológicas, para el español. También comprende inglés, con 56k lemas y todas sus (muy pocas ~200) reglas morfológicas. Se recabaron a su vez 35.000 nombres propios entre español e inglés, y aprox. 14.000 locuciones entre españolas, argentinas y lunfardas, 970 nombres de unidades y monedas, 6 mil abreviaturas, 240 fórmulas químicas de los productos más comunes, entre otras muchas cosas.

Disertaciones, Congresos, Seminarios y Conferencias
Disertación "El Micrófono, el último Nexo con la Realidad Acústica", encuentro anual de la AES Argentina (Audio Engineering Society), en Bs.As. el 12 de Diciembre de 2006,

Disertación "La Lingüística y la Ingeniería", invitado en el "Panel de los Ingenieros"
II JORNADAS INTERNACIONALES: “La Enseñanza de Inglés en las Carreras de Ingeniería” Facultad de Ingeniería, Universidad de Buenos Aires 15 y 16 de diciembre de 2006.

Disertación "Conociendo el interior de un Micrófono" Estudios "El Pie" sábado 28 de Marzo de 2009, Invitado por el presidente de la AES Argentina (Audio Engineering Society)

Disertación "Compresores de Audio y procesadores Dinámicos" Estudio "Los Pájaros", de Ramón "Palito" Ortega, en Luján, Bs. As. el 31 de agosto del 2009, invitado por el vicepresidente de la AES internacional (Audio Engineering Society)

Poster "Robustez humana en el Procesamiento de Lenguaje Natural" en ProLen "Primer Encuentro de Grupos de Investigación sobre Procesamiento del Lenguaje", Biblioteca Nacional, Buenos Aires, 4 al 6 de mayo de 2011

Poster "Plataforma de creación de agentes de diálogo inteligentes" en ProLen "Primer Encuentro de Grupos de Investigación sobre Procesamiento del Lenguaje", Biblioteca Nacional, Buenos Aires, 4 al 6 de mayo de 2011

Disertación "Hacia un modelo de I + D con producción. ¿Cómo ser emprendedor sin morir en el intento?" Ciclo de conferencias UBA Emprende, Salón del Consejo Directivo, Facultad de Ingeniería, Universidad de Buenos Aires, jueves 26 de mayo de 2011.
Disertación "El nuevo paradigma: Inteligencia Artificial y Procesamiento de Lenguaje Natural (NLP)", ciclo de conferencias "Tendencias de la Computación del Futuro" de la muestra R/evolución, UTN (Universidad Tecnológica Nacional), Buenos Aires, 16 de Junio de 2011.
Disertación "Creación de Agentes Inteligentes: verdad o ficción", ciclo de conferencias sobre "Tendencias de la Computación del Futuro" de la muestra R/evolución, UTN (Universidad Tecnológica Nacional), Sede Regional Buenos Aires, viernes 17 de Junio de 2011.
InterferenciInterferencia entre Símbolos (ISI), 2014
 
Cuentos Cortos, Novelas, Mini-Ficciones y Poesía

Cuentología es un índice de mi obra literaria inédita, la cual no es muy especial (salvo para mí, y algunos que se atrevieron a leerlos), aunque ya cuenta con más de medio centenar de piezas únicas. Espero les de curiosidad, y que en algún momento puedan ver la luz y ser editados en un libro de cuentos, ficción o como quiera se llamen. Y si alguien desea un día leer alguno de ellos, tan solo me manda un email, indicando cuál título desea y se lo envío sin cargo.. (de conciencia)
Advertencia: Están contraindicados para ansiosos, pues producen una clase rara de adicción.

Esta página fue vista por visitantes diferentes desde principios del año 2005