vídeos relacionados

Loading...

domingo, 26 de julio de 2009

Familiaridad


Las interfaces de usuario de alguna herramienta, sean por ejemplo de ofimática o el panel de control de una compleja obra de ingeniería, se puede apreciar alguna aproximación del esfuerzo y proceso de diseño para alcanzar algo que al usuario le resulte fácil de aprender y usar en poco tiempo (curva de aprendizaje óptima)

Cuando se aprende a usar por primera vez un editor de textos, el usuario lo tendrá fácil cuando además tenga que aprender a usar un editor de diapositivas u hoja de cálculo, porque normalmente para el diseño del conjunto de aplicaciones ofimáticas (suites/paquetes) se ha tenido en cuenta la reutilización de algunos elementos y funciones comunes o similares, además de ubicarlos en el lugar donde el usuario lo recuerde con facilidad.

Otro ejemplo, lo podemos encontrar en el diseño ergonómico de una nueva cabina de un piloto, en la cual se tiene como objetivo eliminar posibilidad de error humano por causa de un desconocimiento de las interfaces. La cabina le debe resultar familiar en comparación con un modelo anterior que ya conoce desde su entrenamiento previo.

Así, pueden encontrarse varios escenarios y aplicaciones que de alguna manera han aplicado algún grado de familiaridad en una versión estática de diseño, y en algunos casos sin ser conscientes de eso. 



Al momento de diseñar un robot de uso personal o cualquier otro sistema cibernético (p.e. un teléfono móvil), en el cual una persona tenga que interactuar con él, no será suficiente tener en cuenta cosas como la usabilidad, ergonomía, personalización, etc. La familiaridad es uno de los aspectos clave más importantes para que el diseño tenga mayor probabilidad de aceptación.





¿Qué es la familiaridad?

Familiar (Del lat. familiāris) “… Se dice de aquello que se tiene muy sabido o en que se es muy experto; Persona que tiene trato frecuente y de confianza con alguien.” [RAE]

FamiliarizarHacer familiar o común algo; Introducirse y acomodarse al trato familiar de alguien; Adaptarse.” [RAE]


En neurociencia, se ha demostrado que la familiaridad existe en nuestra mente y se puede medir. Nuestra representación mental de un objeto o lugar es cualitatívamente diferente entre el conjunto de elementos que nos resulta popular de otro conjunto que en síntesis nos resulte familiar. ["Cortical Representations of Personally Familiar Objects and Places: Functional Organization of the Human Posterior Cingulate Cortex.", Motoaki Sugiura et.al., NICHe, Tohoku Univ. JP]


Al buscar alguna definición más completa entre gran parte de artículos que usan ese término, no he encontrado algo similar a lo que entiendo por "familiaridad", así que de momento, a modo de borrador indicaré que:

"La familiaridad es un conjunto de sentimientos, emociones y pensamientos con un mayor grado de coincidencia entre la percepción de algo (o alguien) y el recuerdo especial evocado con fluidez, en relación con la memoria de previos sucesos que han alcanzado alta confianza por una acumulación de momentos de satisfacción o del dominio aprendido por alguna vivencia repetitiva y muy cercana."


Para clasificar los diseños familiares, lo primero que se me ocurre son tres niveles de complejidad, aquí introduciré dos: 


(1) de Diseño familiar: Atributo de calidad del diseño de ambientes y soluciones personalizadas para evocar recuerdos de vivencias positivas del usuario.


(2) de Diseño con función dinámica de familiarización: capacidad de un sistema o producto de ser adoptado por el usuario a su sentimiento más cercano de confianza, con tecnología asistida y adaptrónica para sostener repetitivas experiencias de satisfacción por muy largo plazo en condiciones normales de uso. 


¿Qué nos evoca la familiaridad?



  • simpatía
  • cercanía
  • cuidados
  • preocupación
  • comprensión
  • afecto
  • adopción
  • etc.




Los niños y muy jóvenes incorporan las nuevas tecnologías de forma muy "natural", y se podría decir que han nacido con ellas  (otro día compartiré un experimento en este contexto);

los no tan jóvenes las utilizamos principalmente a través de los procesos de negocio y exploración con algo más de esfuerzo; 

pero las personas muy mayores siguen teniendo grandes dificultades para entender lo que las tecnologías pueden hacer para mejorar su calidad de vida. En este último escenario es especialmente donde la familiaridad en los diseños puede ayudar.


¿Qué puede aportar la familiaridad a la innovación?




Con gestión de la familiaridad, bien aplicada, se puede tener una herramienta potente para la innovación a la "diana" de productos líderes más cercanos al usuario y obtener beneficios durante más tiempo.

[ciclos repetitivos de innovación]

Mientras la fidelidad está más relacionada con la confianza en la marca y la empresa
la familiaridad se relaciona directamente con la confianza en el producto, servicio o solución tecnológica (la interfaz con el usuario)



Repasando la evolución de las interfaces de uso personal, se destaca:

  • CUI (Character User Interface)
  • GUI (Graphical User Interface)
  • PUI (Perceptual User Interface)
de estas tres, faltaría un nuevo tipo de interfaz para abordar una dinámica de familiaridad. Nuevamente, al no encontrar algo que me resulte satisfactorio, he propuesto la siguiente:

  • SUI (Symbiotic User Interface)
que en español se puede traducir mejor como “interfaz-de-usuario simbiótica” o simplemente "interfaz simbiótica". 

Aquí es donde nuevamente el diseño es aplicable a modelos de sistemas cibernéticos y robots con cierta capacidad cognitiva, que es uno de los experimentos con la memoria artificial de pensabot (modelos mentales modulares)

Los mensajes y el comportamiento del usuario son percibidos y memorizados por la interfaz de forma proactiva, constante y privada. Únicamente los datos por perfil deberían ser suficientes para ser rescatados por una transmisión periódica hacia un centro de gestión de familiaridad. 

La apuesta es arriesgada: cuanto mayor experiencia de la interacción de ambas partes, mejor o peor puede ir la relación entre humano y máquina. Dependerá entonces de dar más valor a los resultados que impliquen coincidencia y mutualidad. Detectando lo parasitario para descartarlo, o al menos otorgándole menor peso (momentos de optimización de memoria, reflexión artificial o "sueños" de robot)



La familiaridad puede ser incorporada como característica de las Interfaces H-M que permite a los usuarios adoptarlas más fácilmente mediante una relación simbiótica de muy largo plazo (co-adaptación), acumulando un creciente nivel de confianza mutua. Esto sería un proceso de “familiarización” o “cibernética de la familiaridad”, donde se trabaja sobre la memoria del usuario y no solamente en la memoria de la máquina.




¿Cómo una interfaz de usuario puede alcanzar la familiaridad?

El primer diseño de la interfaz debe aproximarse a algo que le resulte familiar de primera vista al usuario.

Seguidamente, aquí comparto algunas de las acciones (retos) que una interfaz puede realizar para aumentar y sostener un nivel de familiaridad:
  • Convivir con el usuario mayor tiempo.
  • Observar actividad del usuario mediante los sentidos y especialmente los gestos y emociones.
  • Interpretar bioseñales en tiempo real.
  • Acumular recuerdos de las interacciones bajo un mapa contextual.
  • Reaccionar con empatía.
  • Ajustar la personalización de forma dinámica y proactiva.
  • etc...

En conclusión, especialmente en la Robótica moderna y dispositivos con tecnología asistida, los diseños que aspiran tener mayor éxito deben incluir la misión de familiarizarse con sus usuarios.




miércoles, 4 de junio de 2008

MODEM mental: hacia la telepatía electrónica.



Este blog se podrá escribir algún día con la mente. Tal vez, a futuro, ya ni será necesaria la escritura ni el lenguaje hablado.


Rescatando al antiguo concepto MODEM (MOdulador-DEModulador) y de los nuevos BCI (Brain Computer Interface), se ve más cerca un camino hacia el invento de un posible aparato integral que nos permita traducir y transmitir nuestros pensamientos a una velocidad superior al lenguaje hablado.


El MODEM fue utilizado antiguamente para la transmisión de datos dentro de una señal portadora sinusoidal en diferentes medios, como un cable telefónico u ondas de radio. Actualmente se sigue aplicando el mismo principio pero más óptimo en rapidez, seguridad, con telecomunicación dinámica, etc.


En nuestro afán de explorar nuevos medios de comunicación y nuevos sentidos, hay un experimento que me ha llamado especial atención. 

Según la revista Science, recientemente se ha experimentado con éxito en la interpretación de algunas palabras que se pudieron reconocer en el momento de pensarlas sin pronunciarlas. El ensayo consistió en un entrenamiento inverso. Es decir, primero los voluntarios se concentran en pensar las palabras que se les indica mientras les monitorizan su actividad cerebral; se registran las distintas combinaciones de las zonas del cerebro que son activadas por distintas palabras. Las combinaciones poseen relación con diferentes recuerdos, emociones, etc. Por ejemplo, palabras que representan herramientas normalmente activarán zonas relacionadas con el movimiento manual; mientras que palabras que significan edificios, se espera que activen zonas asociadas a espacios. Así también, unas palabras activan zonas similares a otras porque tienen alguna relación lógica entre sí, y así sucesivamente.


Esta aproximación depende de la configuración mental de cada persona y sus respectivas asociaciones de palabras con sus recuerdos. Pero sorprendentemente funciona con un amplio vocabulario por el "sentido común" que los seres humanos vamos guardando en nuestros recuerdos y éstos son reconocidos en un alto nivel de abstracción mental. El experimento ha sido realizado con 60 palabras, incluidos 25 verbos, para luego poder reconocer incluso palabras nuevas no entrenadas, por utilizar un sistema inteligente que predice en las combinaciones de la actividad cerebral según lo aprendido. 

El problema que veo en este experimento es en la precisión de las palabras pensadas que puedan ser reconocidas con sinónimos, y no exactamente la palabra literal. Haría falta una exploración con una previa configuración mental en función de la memoria de cada persona en particular.


El próximo paso inmediato es la investigación del lenguaje con frases completas y de ahí hacia el reconocimiento mental de escenarios cada vez más complejos.


El método será aun mejor una vez que se pueda reconocer la configuración lógica de alto nivel de cada mente, abstrayendo así los conceptos de las combinaciones funcionales y sensoriales específicas más cercanas a la anatomía del cerebro. Eso permitiría extender la transmisión de conocimientos sin necesidad de pensarlos, directamente a los recuerdos y aprendizajes.


El futuro MODEM mental tendrá que estar conectado a un amplificador portátil de señal neural de alta resolución procedente del neocortex e hipocampo (la interfaz), porque son las zonas donde se producen los flujos de memoria entre el pensamiento y los recuerdos. Previamente, el MODEM tendrá que estar configurado y calibrado según la arquitectura mental de su respectivo usuario, algo que se podrá hacer con un scanner completo neurocognitivo en cada etapa de vida y según se desarrolla el cerebro con la edad (update). Solo entonces, el sistema portátil podrá estar calibrado para una estimulación neural sincronizada con un ejército de nanobots u otra técnica que actúe en el flujo nervioso.


Cuando el desafío anterior se consiga, probablemente el caudal y velocidad de transmisión de datos (qbits) sea mucho mayor, como para soportar las señales neurales de alta resolución en breve tiempo. Entonces el resto puede ser algo así como transmitir la señal "modulada" por cualquier medio conocido (teléfono móvil, Internet, etc.) y dependiendo del receptor, éste sea capaz de "demodular" la señal en otro MODEM y de ahí a cualquier otro dispositivo u aparato que reaccione a modo de "telequinesis electrónica"; o bien, con otro MODEM mental en el otro extremo y un neuro-estimulador que active las zonas del cerebro del receptor en su propia configuración equivalente, produciendo así una primera experiencia de "telepatía electrónica" (e-Telepathy) de alto nivel de abstracción sensorial, es decir, transmisión de pensamiento conceptual y no a nivel de estimulación de sentidos.


Invitando a pensar prospectívamente un poco más lejos (intención de este blog), me pregunto ¿qué fenómeno se puede producir cuando comencemos a comunicarnos entre cyborgs mediante la telepatía electrónica en red social a ritmo de vértigo?  Los buenos pensamientos y la sinceridad serán visibles, entonces no hay motivo para temer los avances de las nuevas Neurotecnologías, ¿o sí?


lunes, 24 de marzo de 2008

iCub, el robot ideal para explorar el pensamiento artificial.



Se prepara un interesante proyecto cognitivo para imitar el proceso de aprendizaje del lenguaje natural humano en robots.

El proyecto nace de la tecnología desarrollada por el grupo RoboCub, creadores del robot iCub. El acrónimo ITALK significa "Integration and Transfer of Action and Language Knowledge in Robots" y coincide con la palabra en inglés "talk" (habla)

El estudio servirá de guía para descubrir y definir las necesidades de un modelo de referencia que servirá para analizar y diseñar la mente de futuros robots humanoides, esperando así que se relacionen mejor con nuestra Sociedad y tengan algo más en común con nosotros.

Será un camino largo porque se intentará imitar el proceso de aprendizaje de los primeros años de vida de un ser humano, como si estuviera en una guardería, o como el estudio del lenguaje de interacción humana con los primates. El diálogo verbal, gestual y corporal por imitación será una nueva forma de programación por entrenamiento de un robot. Un lenguaje más natural y con recuerdos será uno de los principales objetivos del estudio.

Aunque ITALK está constituido por un consorcio europeo, el laboratorio Cognitive Machines del MIT y el laboratorio Behavior & Dynamic Cognition del RIKEN también participarán en el proyecto.



Agradeciendo al coordinador del proyecto, Pensabot podrá realizar ensayos de pensamiento artificial sobre una tecnología humanoide, es decir, sobre un cuerpo físico además de una versión virtual. Porque una mente humanoide no puede formarse sin un cuerpo, o por lo menos mientras no aprendamos primero a hacerlo de esa forma.

En paralelo, se está elaborando un protocolo de pruebas de consciencia desde la perspectiva de la neuroingeniería*: "Pensabot Test", clasificada en la categoría de pruebas de introspección, directamente monitorizando los flujos de memoria, que puede ser complementado con otras pruebas de evidencia por psicoanálisis exterior. El objetivo de las pruebas será determinar el grado de consciencia de los próximos robots humanoides, aunque se estudia también una modalidad de preparar pruebas de consciencia sobre otros tipos de sistemas cibernéticos.

(* neuroingeniería, como el arte de aplicar conocimientos de las neurociencias para modelizar sistemas cognitivos y crear nuevas tecnologías. Además de los aportes de las disciplinas biológicas de tipo "ensayo-error" para descubrimientos, con una perspectiva de ingeniería se practica el diseño de neurosistemas, en entornos mejor controlados para realizar pruebas más fiables)

domingo, 18 de noviembre de 2007

GRID Humano


El homo-sapiens-sapiens es muy curioso, por un lado predomina su "gen egoísta" en su entorno; por otro, tiene una voluntad de colaborar en redes distantes, pero especialmente cuando los propósitos son para una buena causa, sin importar mucho si eso tendrá retorno o beneficio propio. Pensabot no será una excepción, va por el mismo camino y es una apuesta desinteresada hacia la exploración de la mente humana para aportar esa mimética para los robots del futuro (virtuales o físicos)

Es más curioso aun, cuando aparecen iniciativas donde la necesidad de la causa no es tan clara, como http://setiathome.berkeley.edu/. Proyectos como ese y tantos otros consiguen un amplio seguimiento de personas (millones) que voluntariamente han prestado tiempos de proceso de sus ordenadores mediante un protector de pantalla que se ejecuta cuando el usuario no lo utiliza y permanece conectado a Internet. Con iniciativas como esa, a veces se consigue una potencia de procesamiento comparable a la escala de la Supercomputación, pero a un coste total distribuido por muchas personas que ya poseen un ordenador multipropósito.

Ese clásico proyecto, iniciado en la década de los setenta, tiene el propósito de distribuir por Internet pequeñas partes de procesamiento de la enorme cantidad de datos recibidos de los radiotelescopios, cuyo fin es el de buscar alguna señal artificial de fuente extraterrestre, es decir, algún posible rastro muy antiguo (+50 mil años) supuestamente emitido por algún aparato creado por un ser inteligente desde otros sistemas estelares u otras galaxias: una radiotransmisión alienígena.

En mi opinión, la parte que me parece más interesante de ese proyecto "quijotesco" ha sido el aporte a la investigación de técnicas de exploración espacial y aportes a las técnicas de distribución en red de procesos masivos en Internet.

"Si desde nuestros alcances aun no somos capaces de enviar alguna señal lo suficientemente lejos (p.e. 50 mil años-luz en frecuencia energética negativa de la materia oscura o plegando el espacio) hacia otras lejanías del universo probablemente habitadas, entonces tampoco debemos esperar aun por recibir ninguna señal por parte de aquellas civilizaciones. No es el momento.
Si en nuestro universo cercano todo ha comenzado por un Big-Bang o un Big-Bounce, por lógica cualquier otro lugar del mismo universo con vida inteligente, tendrá un ritmo de civilización y avances tecnológicos a una escala no muy distinta a la nuestra (+/- miles de años), unos algo más avanzados que otros pero probablemente con los mismos grandes límites por magnitud."



Por lo anterior, prefiero priorizar la colaboración de proceso de mis máquinas hacia otros propósitos de interés más cercano a las necesidades de la investigación humana, específicamente hacia la exploración del "universo" que existe al interior de nuestro cerebro, porque queda muchísimo por descubrir, pero el límite de magnitud es cada vez más cercano y ya es posible ver aplicaciones sobre lo que ya es conocido.



Tomando en cuenta lo aprendido en GRID Computing (sistema de procesamiento distribuido en redes de ordenadores o en redes Cluster) e inspirado en las ventajas de la supercomputación para resolver problemas de gran escala (como el World Community Grid), cualquier internauta interesado en el tema puede obtener o construir fácilmente su propia interfaz mental, o usar un biofeedback (interfaz humana para videojuegos con ECG + EEG), inscribirse a un experimento grid en Internet para p.e. el proyecto Neuroserver de OpenEEG. Esto quiere decir, muchas personas con sus respectivas interfaces no-invasivas para capturar señales producidas por algunas de sus ondas cerebrales de áreas específicas, inicialmente a baja resolución, esperando que los avances tecnológicos nos permita en futuro ir actualizando sistemas de menor coste, mejores en densidad y precisión de las áreas comunes y relativas de la mente, del cómo pensamos, diferenciando las edades del cerebro, género, estados identificados y por descubrir.

Los videojuegos y sistemas de asistencia de salud personal facilitan aquella cercanía y familiarización con este tipo de dispositivos de interfaz cerebral no-invasivos.



El objetivo de esta parte de la iniciativa "Pensabot" (de dominio público), va en línea de facilitar a la comunidad neuroinformática, un complemento de estudio de las bases neurológicas de la consciencia humana. Dicho estudio actualmente posee dificultades en los métodos científicos clásicos por falta de un marco de referencia más profundo y que se ve facilitado si se obtiene grandes cantidades de datos analizados con muchos más voluntarios que aporten tiempos de proceso de sus máquinas y que aporten tiempos de adquisición de sus ondas cerebrales para que los investigadores tengan mayor material para sus observaciones más completas y variadas.


El requisito legal más importante va determinado en proteger la privacidad de los voluntarios, garantizando que el módulo de adquisición de señales transmitirá únicamente los resultados cuantitativos y cualitativos para propósitos de estudio estadístico sin asociarlo a una identificación. La garantía se consigue al ser un proyecto de código abierto, sobre el cual se podrá vigilar permanentemente el cumplimiento de su propósito.


De conseguir un flujo constante de muestras de señales mentales por Internet, se facilitará esos datos para que ayuden a conocer mejor el fenómeno de la inteligencia humana y así generar nuevas aplicaciones del conocimiento orientadas a la mente: El Grid Humano.

Además, con los resultados, se podrá crear modelos matemáticos más exactos que puedan retroalimentar el entrenamiento de Pensabot y su base de conocimientos que pueda absorver con buscadores como Google y Wikia, y éste a su vez pueda ser usado libremente también desde Internet como una red cada vez con más semántica, entonces una red cibernética más inteligente.


Me pregunto: ¿a quién no le gustaría ver en tiempo real parte de sus ondas cerebrales según suceden sus acciones o pensamientos? y ¿a quién no le gustaría comprender sus propias señales y controlar ciertas cosas con la mente?

lunes, 1 de octubre de 2007

Carrera por el diálogo en lenguage natural

Aparece una alternativa a uno de los componentes que tendré que probar para evaluar si se integra o se compatibiliza con el proyecto pensabot.

Una empresa relativamente nueva destaca en un evento en Los Angeles dedicado a mostrar novedades de Start-ups. Se ha demostrado un sistema que no solo interactúa con personas en "Lenguaje Natural" a un nivel aceptable, sino además comprende algunas tareas delegadas y las ejecuta en base al diálogo.

En la demostración se pudo llevar una conversación extendida con el sistema inteligente denominado "SILVIA" (Symbolically Isolated, Linguistically Variable, Intelligence Algorithms), es decir, un sistema algorítmico "inteligente" que separa las señales entre un componente lingüístico de su comprensión subsimbólica, de esa forma, una expresión lingüística con cierta ambigüedad puede construirse de varias formas para expresar un único concepto simbólico más preciso, siguiendo un mismo contexto. Además, utiliza el mismo diálogo como herramienta para llevar a cabo acciones delegadas.

Es por lo anterior que SILVIA estaría quedando clasificada como un sistema cognitivo especializado en ejecutar tareas en sistemas de mensajes de procesamiento en lenguaje natural (NPL), y no únicamente como un "chatterbot" o sistemas intérpretes de AIML como A.L.I.C.E., Jabberwacky o ELIZA.

El objetivo de SILVIA es ubicarse en el mercado entre los sistemas que podrán interactuar e intermediar entre las personas usuarias y el resto de tecnologías de uso personal (PC, PDA, teléfonos, emails, etc.) delegando así tareas simples, como decidir cuáles son los mensajes de correo más urgentes para nosotros, dialogar con voz ordenándole que responda algunos mensajes y SILVIA compone las respuestas de correo o de voz siguiendo un comportamiento similar al que acostumbramos con un remitente u otro. En definitiva, como una secretaria que se preocupa por hacer un buen trabajo.

Uno de los directores de Microsoft, Don Dodge, se ha mostrado entusiasmado. Ésta ha sido su opinión:

"The responses from Silivia are intelligent and contextual, not just one or two words, but complete sentences. Could be used for call centers, smart phones, voice search, or many other voice related applications. They only have 8 minutes on stage, but the demo is mind blowing. You would have to see it to believe it...CognitiveCode is way beyond anything I have seen before. Amazing."


La empresa que ha creado SILVIA es Cognitive Code y su producto aparecerá como licencias OEM, es decir, instalados de fábrica en algunos dispositivos de uso personal a partir de finales del año 2007 con el sello "SILVIA inside".



Espero ansioso poder probar la plataforma "SILVIA's Developer Studio". Por el momento , comparto una captura de pantalla donde se puede apreciar un nuevo estilo de programación intuitiva para desarrollar agentes inteligentes.


En esta carrera de tecnologías para la Inteligencia Artificial, sin duda empresas como Google, Apple, etc. nos estarán preparando algunas sorpresas más.

martes, 10 de julio de 2007

Mediciones del cerebro humano


Antes de intentar simular la mente,
hay que medirla y comprenderla.

Antes de medir la mente,
hay que medir el cerebro.

La figura representa la filosofía OpenSource
sobre el estudio de la mente.




Iré recopilando lo que opinan los expertos en diferentes disciplinas mientras construimos a pensabot, al mismo tiempo compartiré algunas vigilancias de nuevas neurotecnologías.

En el contexto del bioelectromagnetismo, disciplina que estudia los fenómenos eléctricos y magnéticos de los tejidos biológicos, en las últimas décadas se ha mejorado notablemente la medición para aplicaciones de diagnóstico en medicina.

En todas las células de los tejidos biológicos existe un intercambio iónico a través de sus membranas, donde se generan gradientes eléctricos que llevan asociados campos magnéticos. Las neuronas además están especializadas en la conducción del impulso eléctrico.

La siguiente imagen muestra el flujo de corrientes intracelular, extracelular y transmembrana.

Para observar las funciones cerebrales, desde la neurociencia y biopsicología, hemos conocido las tecnologías EEG (ElectroEncephaloGraphy), sEEG (stereoEEG), SPECT (SinglePhotonComputedTomography), PET (PositronEmissionTomography), MRI (MagneticResonanceImaging), el popular fMRI (FunctionalMRI) y el más avanzado MEG (MagnetoEncephaloGraphy)

En el cuadro se puede observar el posicionamiento de estas tecnologías.



Actualmente, los instrumentos de medición clínica más usados están basados en la tecnología fMRI y aumenta el interés por MEG.


Para algunos experimentos simples, utilizaremos técnicas EEG, el software BioEra y por supuesto MATLAB. En otras, revisaremos conclusiones de las mediciones de mayor precisión y tiempo real en los estudios realizados con fMRI y MEG+EEG.



El siguiente objetivo será construir nuestro propio hardware de diseño abierto e instrumentos de medición de nuestro cerebro humano y una interfaz similar para medir virtualmente a pensabot.

domingo, 1 de abril de 2007

NuPIC (1er acercamiento)

Realmente he probado NuPIC pocos días atrás. Esta vez tomaré algunas notas y observaciones.

NuPIC significa:
"Numenta Platform for Intelligent Computing",
Plataforma Numenta para Computación Inteligente (o Inteligencia Computacional, inteligencia artificial subsimbólica)

Lo mejor de todo, que es OpenSource :) motivo del dibujo que representa GNU y Linux.


Su principal característica es utilizar una nueva técnica denominada Memoria-Jerárquica-Temporal (HTM: Hierarchical-Temporal-Memory) que explicaré en detalle más adelante. Lo más interesante es el modelo, porque la tecnología hasta el momento está comenzando a desarrollarse.

Vigilaré de cerca la tecnología NuPIC porque la crea el propio autor del modelo, también vigilaré algunos proyectos en talleres universitarios y algunas cosas que he encontrado en foros de robótica, al mismo tiempo que haré mi propia plataforma y herramientas orientadas al pensabot, por supuesto, intentando siempre hacerlo de forma modular y compatible con las tecnologías más estándares.

Así, este blog es para compartir mis impresiones y también es una invitación a quien desee involucrarse o comprometerse para crear a pensabot. Para ello he abierto un grupo de colaboración, siguiendo este enlace: grupo pensabot.


El primer acercamiento con esta tecnología es probar un ejemplo muy básico disponible para que cualquier interesado pueda observar lo que se puede hacer, razón por la cual este ejemplo se ha compilado para el sistema operativo MS-Windows.

La demostración de Numenta utiliza una red cluster localizada en California, a la que se accede solamente desde una interfaz para usuario, quien envía un dibujo por Internet, para luego recibir la interpretación que el sistema ha aprendido. Esta demo se ha elaborado, en esta ocasión, para el reconocimiento y aprendizaje visual de símbolos y formas en baja resolución. Advierto que es algo muy básico: "Pictures Demonstration application". En la siguiente página compartiré lo que he probado.

Existe otras técnicas previas de reconocimiento de patrones visuales en IA, por lo que habrá que realizar una comparación para ver las ventajas y limitaciones. En definitiva, descubrir para qué aplicaciones resultará interesante. Las ventajas se pueden intuir y habrá que medirlas de alguna forma, puesto que el modelo es el más parecido hasta el momento a nuestra forma de pensar.

jueves, 22 de marzo de 2007

Bienvenid@

Bienvenido(a) a la bitácora de proyecto de 'pensabot', el robot pensador.
Realmente no te puedo decir con certeza lo que aquí encontrarás, porque esto es libre y abierto a lo que se decida hacer para pensabot, dependerá de la mayoría de los miembros del equipo. Con toda seguridad, haremos un índice o mapa de ruta de este viaje... ¿hasta dónde llegaremos?

  • ¿a construir algunos robots conectados a la red disponible para todo el mundo?
seguramente...

  • ¿a conseguir que piensen?
tal vez...

solo hay que observar los avances sobre la exploración de la mente humana y la tendencia que sigue el mundo con las tecnologías cada vez más desarrolladas, algunas comienzan de forma inmadura o en versión beta, pero prometen un interesante camino y nosotros vamos a aplicarlas.

La misión original queda así bien definida: "hacer pensar a los robots".

sábado, 17 de marzo de 2007

Origen

Esta iniciativa comienza un sábado 17 de marzo de 2007, al momento de haber recibido una alerta en mi correo de un nuevo mensaje...

... compruebo la noticia en el siguiente artículo:

"Hawkins lanza el primer ordenador que imita el proceso de pensamiento"

Eso suena muy bien, habrá que seguir de cerca cómo evoluciona esta tecnología. Enseguida recuerdo los trabajos previos de Jeff Hawkins, como el creador del Palm Pilot, Handspring, o también como quien se interesó seriamente en comprender el cerebro humano desde el Laboratorio de Inteligencia Artificial del MIT, creando el Redwood Neuroscience Institute y la empresa Numenta. Este relativamente nuevo personaje, lleva casi 20 años en el estudio. Aunque no es considerado uno de los más prestigiosos, ha sabido rodearse de quienes sí lo son para hacer realidad su idea.


Entonces, era solo una cuestión de tiempo a que se diera este tipo de novedad. Algo se venía comentando también en todas partes, y especialmente recopilado en un artículo publicado en la revista Science con el título "Modelling the Mind" del 6 de octubre de 2006.


Pero el mérito no es exclusivamente de quienes se han esforzado por la parte cognitiva de la I.A., también ha sido relevante los descubrimientos sobre nuestra mente, que ahora pueden ser mejor investigados gracias a una combinación de nuevas tecnologías que escanean mejor el cerebro, como por ejemplo: fMRI (functional magnetic resonance imaging) y MEG (magnetoencefalografía) Este último, aporta una mejor resolución del mapa cerebral y en tiempo real. Una ventaja de este invento es tener la posibilidad de vigilar el desarrollo del cerebro desde temprana edad, puesto que no utiliza técnicas invasivas al cuerpo humano.


En efecto, por un lado al conocer mejor el funcionamiento de nuestro cerebro; y por otro, disponer de una tecnología basada en el modelo más próximo a la mente, entonces podemos estar frente a un nuevo paso histórico para la robótica inteligente, como para iniciar este blog y aplicar nuevas tecnologías en algunos de nuestros robots.

jueves, 1 de septiembre de 2005

¿Cómo funciona el cortex?

How the Cortex Works


54 min 19 s - 01-sep-2005
Valoración media: (18 valoraciones)
Descripción: Workshop: Emphasis Week on Neurobiological Vision A Model for a common algorithm for each neocortical region has been introduced: A hierarchical memory model that predicts future events by analogy to past events. Each region stores sequences and predicts the next element in the sequence. In the feed forward passway, each region passes a sequence name up. In the feedback passway, each region converts invariant predictions into specific predictions and passes the specific prediction down.


Si tienes problemas para ver el vídeo, intenta copiar la siguiente URL en el navegador:
http://video.google.es/videoplay?docid=6374966037016943942&q=%22jeff+hawkins%22&pr=goog-sl