EDICIóN GENERAL
145 meneos
1918 clics
Una nueva técnica radical permite que la IA aprenda prácticamente sin datos [INGLÉS]

Una nueva técnica radical permite que la IA aprenda prácticamente sin datos [INGLÉS]

Un nuevo artículo de la Universidad de Waterloo en Ontario sugiere que los modelos de IA también deberían ser capaces de llevar a cabo un proceso que los investigadores denominan aprendizaje de “menos de un disparo” o LO-shot. En otras palabras, un modelo de IA debería poder reconocer con precisión más objetos que la cantidad de ejemplos en los que fue entrenado. Eso podría resolver un gran problema para un campo que se ha vuelto cada vez más caro e inaccesible a medida que los conjuntos de datos utilizados se vuelven cada vez más grandes

| etiquetas: ia , lo-shot , aprendizaje , entrenamiento , objetos
Sería la primera IA de verdad inteligente.
#1 No. Aun falta mucho para eso.
Muy interesante. La mayoría del aprendizaje automático que se usa actualmente se basa en datos numéricos (matrices de características de los objetos). Pero hay información que a menudo no se incluye en estos modelos, y que los humanos conocemos de manera inconsciente. Por ejemplo, si el sistema tiene que clasificar personas por características físicas, como el color de la piel y el del cabello, tendrá en cuenta todas las combinaciones posibles. Pero un humano aplicaría el conocimiento…   » ver todo el comentario
#2 Interesante. Trabajé hace unos años con sistemas de visión artificial y eso que dices, para la máquina no es tan obvio.

Se le puede programar para dar un scoring y que te diga que es un 3 pero podría ser un 8. Pero si lo complicas un poco, por ejemplo, apelotonando los números, algo para nosotros obvio, se complica mucho.
#5 En efecto, no es nada obvio. Es lo fascinante de estas técnicas, que entre otras cosas hacen que uno se dé cuenta de la complejidad que hay detrás de reconocer una forma simple. El cerebro de los animales funciona extraordinariamente bien para reconocer formas con diferentes perspectivas, incompletas, con luz deficiente o con colores extraños. Una máquina necesita un entrenamiento muy bien diseñado.
#6 Y desde la imaginación... ¿habría alguna manera de premiar a la máquina aprendizajes exitosos? Del modo como sucede en la naturaleza, en el funcionamiento de organismos complejos. Lo digo porque quizás con ese "premio" (ni idea de qué demonios puede ser un premio para un software de IA) la máquina, el programa aprendiera más rápido y eficientemente. Como digo, desde la imaginación.
#26 sobre #15 se llama aprendizaje con refuerzo (reinforcement learning). Realmente es así. Si eres capaz reconocer que acciones son correctas de las que no, al ordenador se le da una recompensa premiando ese comportamiento. Sí la recompensa es negativa se penaliza. Este video es brutal (cualquiera de OpenAI!) youtu.be/kopoLzvh5jY


sobre #25 se llaman GANs, dos redes compiten entre sí, que aunque el enfoque es distinto también es súper interesante.

Una red se entrena para generar contenido falso y otra para reconocer que es falso y que no, compiten entre ellas haciendose cada vez mejor en su tarea.
youtu.be/gLoI9hAX9dw
#30 Me parece muy interesante... pero algún detalle me da un pelín de miedo... "...coevolucion and competition led to the only generally intelligent species known to date..." Esa adaptación evolutiva mutua basada en la competición... Hmmm...

Cuando hablaba de "premio" me refería al término de Psicología que relaciona el refuerzo positivo con una tarea concreta. Los "premios" o refuerzos positivos son los que han creado y modificado nuestra manera de entender el…   » ver todo el comentario
#31 ¿qué podría ser "premio" para un sofisticado programa de inteligencia artificial?

El análogo del "premio que refuerza un comportamiento correcto" en psicología sería el "proceso de entrenamiento" de una red neuronal, que tiene lugar antes de dar la "inteligencia artificial" por terminada y lista para usarse.

Este "entrenamiento" es en realidad un problema de optimización. Partes de un sistema que depende de muchos parámetros y que…   » ver todo el comentario
#15 En eso se basan la mayoría de programas de IA de hecho.
#22 ¿Ah, sí? Pues no sabía... ¿Y qué tipo de "premio" se adjudica? :-O
#23 No es ningún premio. Simplemente le dices si está bien o mal el resultado y así aprende.
Incluso hay un tipo de programación en la que se hacen 2 programas, uno hace algo y otro intenta reconocer si es real, y así aprenden las 2 solas.
Te recomiendo el canal DOTcsv de YouTube. Ahí te explica bastante bien el funcionamiento.
También puedes ponerla a jugar una partida de ajedrez, donde ganar la partida es el "premio", aunque se le asignan premios menores por diversos progresos como comer una pieza.
#25 Gracias, le echaré un vistazo al canal. :-)
#23 Un cierto parámetro se incrementa. No suena muy apasionante, pero funciona.
#2 No tengo ni puta idea pero asignando "peso probabilistico" a esas relaciones, por ej color de piel - tipo de pelo, no se soluciona el problema?

De todos modos, no es innato en los humanos, por seguir con tu ejemplo, el saber que determinado color de piel suele estar asociado a determinado tipo de pelo, ese conocimiento tambien requiere de aprendizaje.
#2 también funciona para identificar tanques, si el cielo está nublado no hay ninguno
Menéame detecta fascistas con menos datos o "low-inteligence shot."
#3 Bueno, el algoritmo es fácil, si no apoyas a Podemos, eres un fascista.
#4 El algoritmo real es el siguiente: si mete con calzador una referencia a Podemos en una noticia sobre el PP o Pox, casi con total seguridad es o bien una persona muy de derechas con poco sentido crítico, o bien una cuenta de astroturfing.
#8 Hay que reconocer que esto está cada vez más equilibrado, hay sectarios y bots de todos los bandos y ya pasó el máximo esplendor de Podemeame.

Aún así los sectarios de Podemos seguís siendo mayoría.
#10 así es, poniendo siempre nuestro granito de arena. De todas formas, viendo lo que hay alrededor, no me queda otro remedio que seguir siendo un sectario de podemos, no es por fanatismo, es por falta de alternativas.
#12 Posiblemente una IA suficientemente avanzada no notaría la diferencia entre sectarios de derechas y de izquierdas por tener demasiados elementos importantes en común. :roll:
#13 Ouh yeah

youtu.be/KpfrpMwst9o

(Qué rabia, no lo encuentro en castellano de España <:()
#13 Si hubiera una IA lo suficientemente avanzada, dejaría que fuera ella quien gobernara.
#17 Yo no, porque exterminaría a los humanos por una serie de razones perfectamente válidas.
#8 O un bot con un AI muy pobre que no reconoce bien el patrón donde puede meter eso sin ser demasiado artificial.

Si se sienten muy estimuladas las personas tienen un comportamiento parecido a ese y acabamos todos cambiado de tema más allá de los 3 pueblos.
[...] sugiere que los modelos de IA también deberían ser capaces [...]

O sea, más humo.
#7 si sólo te interesa lo que ya está terminado y listo para usar tu sitio es el corte inglés, no un sitio con noticias de ciencia e investigación
#19 ¿Desde cuando es meneame un sitio con ciencia e investigación? Es un agregador de noticias, entre las cuales hay algunas que versan sobre la ciencia y la investigación.

Estoy harto de titulares similares al de esta noticia cuando en realidad es que la IA es incapaz de distinguir a un mono de una persona de piel negra.
#24 sub de ciencia
#7 Creo que no lo has pillado o no lo parece.
Es interesante, pero un poco utópico. Me explico un poco: habla de un paper que consiguió entrenar MNIST con sólo 10 imágenes, consiguiendo resultados muy buenos, lo que es cierto. Pero para hacerlo, tuvieron que crear esas 10 imágenes usando todos los datos disponibles. Con lo cual funcionaría muy bien como un sistema de compresión de información, pero se siguen necesitando muchos datos para obtener un buen resultado.

En su modelo, ellos utilizan lo que llaman 'soft labels'. No es algo nuevo…   » ver todo el comentario
Errrrrrrr
The images weren’t selected from the original data set but carefully engineered and optimized to contain an equivalent amount of information to the full set. As a result, when trained exclusively on the 10 images, an AI model could achieve nearly the same accuracy as one trained on all MNIST’s images.

Pues me parece que se están llevando la dificultad de entrenar el modelo a la codificación de las etiquetas/ejemplos. Si en vez de hacerlo a mano le meten un autoencoder seguro que también les funciona el invento.
#21 No dicen cómo eligieron esas imágenes, jeje.
Lo que sí me pareció interesante es el estudio de hasta cuánto se logra usando un subconjunto significativo de datos, especialmente para redes neuronales.
Lo que sea para no tener que rellenar otro CAPTCHA.
Estas noticias me ponen palote. Fin de la cita.
El enfoque es interesante, pero lo que han hecho no lo es tanto. Uno de los problemas del aprendizaje con caja negra es que realmente no sabes qué ha aprendido, y ahoran están llevando eso a no saber con qué datos han entrenado la red porque han procesado los datos para que sean representativos. Se está añadiendo una segunda caja negra.

Machine learning typically requires tons of examples. To get an AI model to recognize a horse, you need to show it thousands of images of horses.

Esto…   » ver todo el comentario

menéame