martes, 5 de agosto de 2014

Progresa la creación de computadoras con Inteligencia Artificial

Progresa la creación de computadoras con Inteligencia Artificial

Se están realizando grandes avances en lo que se denomina “aprendizaje profundo”, aunque todavía se necesita del ser humano
Los grandes cerebros del mundo de la inteligencia artificial (IA), reunidos esta semana en la conferencia anual de la disciplina, están disfrutando de su tan esperado momento de gloria.
En los 59 años desde que se acuñó el término, la idea de máquinas que piensan ha estado y pasado de moda. Recuerdos del “invierno de IA” de los años 1970 y 1980 todavía se ciernen sobre el campo. Con empresas como Google, Facebook, Amazon y Baidu a la compra de talento e invirtiendo para construir grupos de IA en casa, el tema ha vuelto con intensidad. Sin embargo, las diferencias de opinión sobre la tecnología todavía se pueden sentir casi como cismas religiosos. El mismo término “inteligencia artificial”, sugiere un intento de replicar la inteligencia de la especie humana, con todas las implicaciones filosóficas que esto conlleva.
Por ejemplo, Oren Etzioni, jefe de un ambicioso programa de investigación respaldado por Paul Allen, el cofundador de Microsoft, habló de un rincón del paisaje de la inteligencia artificial que está particularmente de moda. “Hay muchas aplicaciones individuales interesantes. Pero si uno busca un poco más allá, la tecnología se va por un precipicio”, sostuvo.
El objeto de su menosprecio es una técnica conocida como “aprendizaje profundo”. Esto está ascendiendo. De hecho, cuando los técnicos hablan de la reactivación increíble en IA, por lo general tienen esto en mente.
El éxito del aprendizaje profundo es un producto de nuestros tiempos. La idea tiene décadas de antigüedad: sostiene que un lote de procesadores, alimentados con datos suficientes, podrían funcionar como una red de neuronas artificiales. Al agrupar y clasificar la información de maneras cada vez más refinadas, podrían “aprender” cómo analizarla de manera similar a la que se cree que funciona el cerebro humano.
Se ha requerido de un enorme potencial de computación concentrado en los centros de datos en nube para entrenar a redes neuronales para que sean útiles. Suena como un sueño de la inteligencia artificial conjurado por Google: sólo hay que ingerir todos los datos del mundo y aplicar suficiente potencial de procesamiento, y se revelarán los secretos del universo.
El aprendizaje profundo ha producido algunos resultados impresionantes. En un proyecto conocido como Deepface, Facebook informó recientemente que había llegado a 97,35 % de precisión en la identificación de los rostros de 4.000 personas en una colección de 4 millones de imágenes, mucho mejor de lo que se había logrado antes. Tales hazañas de reconocimiento de patrones son naturales para los seres humanos, pero son difíciles de copiar para los programadores. Incluso los resultados que suenan trillados pueden señalar avances importantes. El informe de Google de hace dos años que reveló que la compañía había diseñado un sistema que podía identificar los gatos en los vídeos de YouTube aún reverbera en todo el campo.
Usando las mismas técnicas para “entender” el lenguaje o resolver otros problemas que se basan en el reconocimiento de patrones podría hacer que las máquinas se vuelvan mucho mejores para interpretar el mundo que les rodea. Al analizar lo que muchos individuos están haciendo y comparar esto con lo que ellos (y miles de otros) han hecho en situaciones similares en el pasado, se puede anticipar lo que podrían hacer en el futuro.
El resultado podría ser sistemas de comportamiento que entiendan realmente el comportamiento y generen motores de recomendación capaces de sugerir cosas que uno realmente desea. Esto puede parecer extraño. Pero si se hace correctamente, las máquinas podrían llegar a anticiparse a nuestras necesidades y actuar como guías para toda la vida.
Pero existe el riesgo de equiparar la salida de los sistemas tales como estos con los productos de la inteligencia humana real. En realidad, son trucos de salón, aunque sean impresionantes. Lo importante será saber dónde aplicar sus habilidades - y cuánto confiar en ellas.
Los sistemas de aprendizaje profundos no emplean el tipo de razonamiento transparente involucrado en la “IA clásica”, donde las computadoras son alimentadas con organismos definidos de conocimiento y las reglas sobre la manera de interpretarlos. Eso, dicen los escépticos, hace que sus resultados sean intrínsecamente misteriosos.
“Si uno busca consejos y alguien le hace una recomendación, y no puede enumerar su razonamiento, desconfiaría de su recomendación”, dice Raul Valdes-Perez, un informático cuya compañía, OnlyBoth, utiliza técnicas clásicas para responder a consultas en oraciones completas, que según él va más allá de la capacidad de aprendizaje profundo.
Esto es lo que Etzioni tenía en mente cuando advirtió que el aprendizaje profundo, si va más allá de sus límites, tarde o temprano caerá por un precipicio. Él da el ejemplo de un sistema de diagnóstico basado en esta técnica que recomienda la extracción de un riñón de un paciente. La máquina no “entiende lo que es un riñón, y lo que significa eliminarlo”, dice. “No queremos médicos ni sistemas que tomen decisiones cuando no entienden de lo que están hablando”.
Si se necesita un salto de fe para confiar en este tipo de sistemas cuando se trata de intervenciones médicas graves, ¿cuánta confianza se les puede tener cuando se aplican a la vida cotidiana?
Los grandes desarrollos que se están realizando en este campo sugieren que los resultados del aprendizaje profundo pronto se harán sentir más ampliamente. Bajo el control de los expertos humanos que saben cuándo usarlo y cómo interpretar las conclusiones, podría traer una revolución en la toma de decisiones con ayuda de máquinas. Pero, como siempre con la inteligencia artificial, no espere demasiado.

La curiosa evolución de la vida artificial

La curiosa evolución de la vida artificial

Los proyectos comerciales basados en este campo gozan de éxito en Kickstarter, a pesar de que ya pasaron de moda en el ámbito académico
The Physics arXiv Blog 04/08/2014
El término "vida artificial" surgió en 1986, y fue acuñado por el científico informático estadounidense Christopher Langton mientras organizaba el primer "taller de síntesis y simulación de sistemas vivientes". Desde entonces, el concepto de vida artificial se ha extendido desde la ciencia informática a los juegos, el estudio de la inteligencia artificial y otros campos.
Un factor importante de este desarrollo ha sido internet y la forma en que permite que la computación en red genere entornos complejos en los que organismos artificiales puedan prosperar y evolucionar. Recientemente, Tim Taylor desde la Universidad de Monash en Australia ha descrito la historia de la vida artificial en internet y la forma en que podría evolucionar en el futuro.
Divide la historia de la vida artificial basada en internet en dos períodos: antes y después de 2005, fecha que se corresponde aproximadamente con la aparición de la Web 2.0 y los tipos de colaboración que pueden llevarse a cabo con ella.
Uno de los primeros experimentos de vida artificial en red estaba basado en Tierra, el conocido sistema de vida artificial. Fue creado a principios de la década de 1990 por el ecologista Tom Ray para simular en silicio los procesos básicos de la dinámica evolutiva y ecológica. Poco después de comenzar su trabajo, Ray reconoció el potencial de internet para crear un enorme y complejo entorno en el que los organismos digitales pudieran evolucionar libremente. Así que puso en marcha un proyecto denominado Network Tierra para aprovechar este potencial
Los resultados del experimento fueron desiguales. Uno de los objetivos de Network Tierra era reproducir la explosión del Cámbrico, en la que los organismos unicelulares sobre la Tierra evolucionaron rápidamente hacia organismos multicelulares y después hacia animales más complejos.
El experimento en silicio comenzó con un organismo multicelular diseñado por humanos, que consistía en dos tipos de células diferentes. Logró sobrevivir bajo la selección natural, lo que supone un éxito significativo, pero el número de tipos de células nunca fue más allá de dos.
Nadie sabe cómo o por qué se produjo la explosión del Cámbrico, pero los experimentos de vida artificial tienen el potencial de proporcionar información importante sobre el tema, a pesar del limitado éxito de Tierra.
Casi al mismo tiempo, varios investigadores pusieron en marcha otros proyectos de vida artificial basados en internet. Entre ellos estaba Technosphere, un proyecto en el que los usuarios en línea podían diseñar criaturas, liberarlas en un mundo virtual y luego recibir actualizaciones durante los momentos clave de su vida, como por ejemplo cuando se relacionaban con otros animales artificiales. Technosphere llegó a tener una población de 90.000 criaturas.
El mundo virtual en línea de Second Life surgió casi al mismo tiempo en que internet estaba pasando de la Web 1.0 a la Web 2.0. Este mundo atrajo un par de experimentos de vida artificial interesantes en los que el ecosistema, de funcionalidad plena, permitió la evolución de varios tipos de plantas y animales.
La aparición de la Web 2.0 permitió un tipo de colaboración e interacción más intensa. Una de las tecnologías más importantes que lo hacen posible es el almacenamiento y la computación por parte del cliente, en el que la mayor parte del trabajo es realizado por el navegador del usuario. Como ejemplo tenemos a Pfeiffer, un sistema en el que copos de nieve de diferentes patrones evolucionan bajo la influencia de la selección del usuario. Todo el trabajo se lleva a cabo en el navegador.
El proyecto de vida artificial en internet favorito de Taylor es uno conocido como The Wilderness Downtown. Combina tecnologías de vida artificial, como por ejemplo bandadas de pájaros, con animación en tiempo real superpuesta sobre imágenes de Google Street View de cualquier dirección que introduzca el usuario.
Cuando visitó el sitio por primera vez, Taylor quedó claramente impresionado: "Estaba seguro de que lo que acababa de presenciar cambiaría la cara de la investigación sobre la vida artificial".
De hecho, The Wilderness Downtown fue un proyecto muy aclamado y ganó una gran cantidad de premios. Pero también hay que decir que aún no ha cambiado la cara de la investigación sobre la vida artificial. Una de las razones es que el desarrollo comercial de las tecnologías de vida artificial está significativamente por delante de los trabajos académicos.
Esto se refleja en el éxito de una serie de empresas que han conseguido financiación en Kickstarter. Por ejemplo, WigglePlanet recientemente recaudó más de 15.000 dólares (11.200 euros) para financiar el desarrollo de un proyecto que combina la vida artificial y la realidad aumentada. Más impresionante aún es el hecho de que uno de los pioneros de los juegos de vida artificial, Steve Gran, haya recaudado más de 50.000 dólares (37.000 euros) en Kickstarter para financiar el desarrollo de un proyecto secreto de vida artificial llamado Grandroids.
Quizás los proyectos comerciales sean el futuro de la vida artificial basada en internet. Pero aún así, existen muchas cuestiones científicas interesantes que sin duda la vida artificial podría ayudar a responder. Una de las más importantes es el origen de la explosión del Cámbrico y un estudio más detallado de los factores y procesos que han influido en la evolución de la Tierra.
El hecho de que la vida artificial haya pasado de moda en el mundo académico podría ser algo que lamentar, pero también ofrece una oportunidad interesante.

Cinco robots humanoides que tienes que ver para creer

Cinco robots humanoides que tienes que ver para creer



Cinco robots humanoides que tienes que ver para creer
La ciencia de la robótica sigue avanzando. Todavía no podemos crear los robots humanoides que vimos en la impresionante Blade Runner o en la espectacular Terminator pero todo llegará. Actualmente, los robots básicos se extienden por todo tipo de empresas de fabricación con grandes proyectos como el de Foxconn que instalará un millón de robots en tres años.
Otros campos de aplicación nos causan esperanza, pavor o sorpresa. Desde los destinados a medicina, control biológico y fisioterapia; el campo militar y seguridad como los BigDog de Boston Dynamics recientemente adquirida por Google en un proyecto que dirige el padre de Android o los robots wearables de la división ActiveLink de Panasonic.
También como asistentes domésticos, compañía o placer corporal. Aquí lo más impactante llegó hace poco del escritor e ingeniero experto en cibernética, George Zarkadakis, al asegurar que en 30 años los robots podrán reproducirse entre ellos y también con humanos con el objetivo de obtener una descendencia genéticamente superior a través de una “especie híbrida”. Algo que pudimos ver en la “Inteligencia Artificial” de Spielberg con Jude Law dando placer a las féminas que podían pagarlo.
!Peligro chicos¡ Esperemos que esto último tarde en llegar… O no, quién sabe. No especulamos más y te mostramos cinco robots humanoides que se encuentran entre los más avanzados de la industria:

ASIMO

Un robot japonés (Honda) que ha ido pasando por varias alturas y pesos según sus versiones que parece un cruce entre un traje espacial y un ipod y que fue el primer androide que capturó la atención mundial. Puede de forma autónoma subir y bajar escaleras, recoger y manipular objetos, y hasta contonearse. 

PETMAN

Robot bípedo humanoide diseñado por Boston Dynamics para los militares estadounidense, Se usaría en pruebas químicas, control biologico y en general contra ataques o accidentes NBQ (nuclear , bacteriológico, químico). No tiene la visión, manos o piel de ASIMO pero es más rápido y tiene mayor equilibrio y autonomía, capaz de andar por terrenos escarpados.

NAO

Robot humanoide programable y autónomo, desarrollado por la compañía francesa Aldebaran Robotics. Nació con la misma filosofía de ASIMO pero es más pequeño y económico de fabricar. Está diseñado para sectores de investigación y educativos y ya se ha utilizado para enseñanza de habilidades sociales en niños autistas y como ‘profesor’ de robótica. 

MARTIN KELLY

No es un robot al uso pero la cabeza de Martin Kelly es lo más parecido a un humano. Los ojos parecen vivos, y la cara se mueve naturalmente en una variedad de expresiones convincentes. Dicen que la construcción y animación de un rostro humano plausible es más una cuestión de limitaciones artísticas que los tecnológicos.

ATLAS

Tras el éxito de Petman, Boston Dynamics llevó a cabo un nuevo proyecto de robot humanoide bípedo, como el anterior patrocinado por la agencia DARPA. Está construido en aluminio y titanio, pesa 150 kilos y mide 1,80 metros. Está concebido desde el estamento militar (como supondrás el que más dinero está invirtiendo) y dicen es el más avanzado que existe. Está especializado en entornos NBQ aunque su campo de aplicación puede extenderse a otros. Hay en marcha un concurso inspirado en el desastre nuclear de Fukushima con seis grupos de desarrollo que tendrán que programar el Atlas en distintas pruebas. Entrar en un vehículo y conducirlo, abrir una puerta o utilizar una herramienta eléctrica.
Como verás, aún queda para lograr un humanoide inteligente. Mucho en ingeniería y mucho más en Inteligencia Artificial.



--


Cinco robots humanoides que tienes que ver para creer
La ciencia de la robótica sigue avanzando. Todavía no podemos crear los robots humanoides que vimos en la impresionante Blade Runner o en la espectacular Terminator pero todo llegará. Actualmente, los robots básicos se extienden por todo tipo de empresas de fabricación con grandes proyectos como el de Foxconn que instalará un millón de robots en tres años.
Otros campos de aplicación nos causan esperanza, pavor o sorpresa. Desde los destinados a medicina, control biológico y fisioterapia; el campo militar y seguridad como los BigDog de Boston Dynamics recientemente adquirida por Google en un proyecto que dirige el padre de Android o los robots wearables de la división ActiveLink de Panasonic.
También como asistentes domésticos, compañía o placer corporal. Aquí lo más impactante llegó hace poco del escritor e ingeniero experto en cibernética, George Zarkadakis, al asegurar que en 30 años los robots podrán reproducirse entre ellos y también con humanos con el objetivo de obtener una descendencia genéticamente superior a través de una “especie híbrida”. Algo que pudimos ver en la “Inteligencia Artificial” de Spielberg con Jude Law dando placer a las féminas que podían pagarlo.
!Peligro chicos¡ Esperemos que esto último tarde en llegar… O no, quién sabe. No especulamos más y te mostramos cinco robots humanoides que se encuentran entre los más avanzados de la industria:

ASIMO

Un robot japonés (Honda) que ha ido pasando por varias alturas y pesos según sus versiones que parece un cruce entre un traje espacial y un ipod y que fue el primer androide que capturó la atención mundial. Puede de forma autónoma subir y bajar escaleras, recoger y manipular objetos, y hasta contonearse. 

PETMAN

Robot bípedo humanoide diseñado por Boston Dynamics para los militares estadounidense, Se usaría en pruebas químicas, control biologico y en general contra ataques o accidentes NBQ (nuclear , bacteriológico, químico). No tiene la visión, manos o piel de ASIMO pero es más rápido y tiene mayor equilibrio y autonomía, capaz de andar por terrenos escarpados.

NAO

Robot humanoide programable y autónomo, desarrollado por la compañía francesa Aldebaran Robotics. Nació con la misma filosofía de ASIMO pero es más pequeño y económico de fabricar. Está diseñado para sectores de investigación y educativos y ya se ha utilizado para enseñanza de habilidades sociales en niños autistas y como ‘profesor’ de robótica. 

MARTIN KELLY

No es un robot al uso pero la cabeza de Martin Kelly es lo más parecido a un humano. Los ojos parecen vivos, y la cara se mueve naturalmente en una variedad de expresiones convincentes. Dicen que la construcción y animación de un rostro humano plausible es más una cuestión de limitaciones artísticas que los tecnológicos.

ATLAS

Tras el éxito de Petman, Boston Dynamics llevó a cabo un nuevo proyecto de robot humanoide bípedo, como el anterior patrocinado por la agencia DARPA. Está construido en aluminio y titanio, pesa 150 kilos y mide 1,80 metros. Está concebido desde el estamento militar (como supondrás el que más dinero está invirtiendo) y dicen es el más avanzado que existe. Está especializado en entornos NBQ aunque su campo de aplicación puede extenderse a otros. Hay en marcha un concurso inspirado en el desastre nuclear de Fukushima con seis grupos de desarrollo que tendrán que programar el Atlas en distintas pruebas. Entrar en un vehículo y conducirlo, abrir una puerta o utilizar una herramienta eléctrica.
Como verás, aún queda para lograr un humanoide inteligente. Mucho en ingeniería y mucho más en Inteligencia Artificial.



--