{"id":644,"date":"2021-01-20T13:05:42","date_gmt":"2021-01-20T13:05:42","guid":{"rendered":"https:\/\/www.luxurymarketreview.com\/?p=644"},"modified":"2021-01-21T18:24:38","modified_gmt":"2021-01-21T18:24:38","slug":"how-to-train-a-robot-using-ai-and-supercomputers","status":"publish","type":"post","link":"https:\/\/www.luxurymarketreview.com\/es\/2021\/01\/20\/how-to-train-a-robot-using-ai-and-supercomputers\/","title":{"rendered":"C\u00f3mo entrenar a un robot (usando IA y supercomputadoras)"},"content":{"rendered":"<h2 class=\"wp-block-heading\">Los inform\u00e1ticos desarrollaron un m\u00e9todo de aprendizaje profundo para crear objetos realistas para entornos virtuales que pueden usarse para entrenar robots. Los investigadores utilizaron la supercomputadora Maverick2 de TACC para entrenar la red antag\u00f3nica generativa. La red es la primera que puede producir nubes de puntos de colores con detalles finos en m\u00faltiples resoluciones.<\/h2>\n\n\n\n<p>Fuente:Universidad de Texas en Austin, Centro de Computaci\u00f3n Avanzada de Texas<\/p>\n\n\n\n<p id=\"first\">Antes de unirse a la Universidad de Texas en Arlington como profesor asistente en el Departamento de Ciencias de la Computaci\u00f3n e Ingenier\u00eda y fundar all\u00ed el Laboratorio de Visi\u00f3n Rob\u00f3tica, William Beksi hizo una pasant\u00eda en iRobot, el productor de robots de consumo m\u00e1s grande del mundo (principalmente a trav\u00e9s de su aspiradora rob\u00f3tica Roomba).<\/p>\n\n\n\n<p>Para navegar en entornos construidos, los robots deben poder detectar y tomar decisiones sobre c\u00f3mo interactuar con su entorno. Los investigadores de la compa\u00f1\u00eda estaban interesados en usar m\u00e1quinas y aprendizaje profundo para entrenar a sus robots para que aprendan sobre los objetos, pero hacerlo requiere un gran conjunto de datos de im\u00e1genes. Si bien hay millones de fotos y videos de habitaciones, ninguno fue tomado desde el punto de vista de una aspiradora rob\u00f3tica. Los esfuerzos para entrenar usando im\u00e1genes con perspectivas centradas en el ser humano fracasaron.<\/p>\n\n\n\n<p>La investigaci\u00f3n de Beksi se centra en la rob\u00f3tica, la visi\u00f3n artificial y los sistemas ciberf\u00edsicos. \u201cEn particular, estoy interesado en desarrollar algoritmos que permitan a las m\u00e1quinas aprender de sus interacciones con el mundo f\u00edsico y adquirir de manera aut\u00f3noma las habilidades necesarias para ejecutar tareas de alto nivel\u201d, dijo.<\/p>\n\n\n\n<p>A\u00f1os m\u00e1s tarde, ahora con un grupo de investigaci\u00f3n que incluye a seis estudiantes de doctorado en inform\u00e1tica, Beksi record\u00f3 el problema de capacitaci\u00f3n de Roomba y comenz\u00f3 a explorar soluciones. Un enfoque manual, utilizado por algunos, implica el uso de una costosa c\u00e1mara de 360 grados para capturar entornos (incluidas las casas alquiladas de Airbnb) y un software personalizado para volver a unir las im\u00e1genes en un todo. Pero Beksi cre\u00eda que el m\u00e9todo de captura manual ser\u00eda demasiado lento para tener \u00e9xito.<\/p>\n\n\n\n<p>En cambio, busc\u00f3 una forma de aprendizaje profundo conocida como redes antag\u00f3nicas generativas, o GAN, donde dos redes neuronales compiten entre s\u00ed en un juego hasta que el &#039;generador&#039; de nuevos datos puede enga\u00f1ar a un &#039;discriminador&#039;. Una vez entrenada, dicha red permitir\u00eda la creaci\u00f3n de un n\u00famero infinito de posibles habitaciones o entornos al aire libre, con diferentes tipos de sillas o mesas o veh\u00edculos con formas ligeramente diferentes, pero a\u00fan as\u00ed, para una persona y un robot, objetos identificables con dimensiones y caracter\u00edsticas reconocibles.<\/p>\n\n\n\n<p>\u201cPuede perturbar estos objetos, moverlos a nuevas posiciones, usar diferentes luces, colores y texturas, y luego convertirlos en una imagen de entrenamiento que podr\u00eda usarse en un conjunto de datos\u201d, explic\u00f3. &quot;Este enfoque podr\u00eda proporcionar datos ilimitados para entrenar a un robot&quot;.<\/p>\n\n\n\n<p>\u201cDise\u00f1ar manualmente estos objetos requerir\u00eda una gran cantidad de recursos y horas de trabajo humano mientras que, si se entrenan adecuadamente, las redes generativas pueden fabricarlos en segundos\u201d, dijo Mohammad Samiul Arshad, estudiante graduado en el grupo de Beksi involucrado en la investigaci\u00f3n.<\/p>\n\n\n\n<p><strong>GENERACI\u00d3N DE OBJETOS PARA ESCENAS SINT\u00c9TICAS<\/strong><\/p>\n\n\n\n<p>Despu\u00e9s de algunos intentos iniciales, Beksi se dio cuenta de que su sue\u00f1o de crear escenas completas fotorrealistas estaba actualmente fuera de su alcance. \u201cDimos un paso atr\u00e1s y observamos la investigaci\u00f3n actual para determinar c\u00f3mo comenzar a una escala m\u00e1s peque\u00f1a, generando objetos simples en entornos\u201d.<\/p>\n\n\n\n<p>Beksi y Arshad presentaron PCGAN, la primera red antag\u00f3nica generativa condicional que genera nubes de puntos de colores densos en un modo no supervisado, en la Conferencia internacional sobre visi\u00f3n 3D (3DV) en noviembre de 2020. Su art\u00edculo, &quot;A Progressive Conditional Generative Adversarial Network for Generating Dense and Colored 3D Point Clouds&quot;, muestra que su red es capaz de aprender de un conjunto de entrenamiento (derivado de ShapeNetCore, una base de datos de modelo CAD) e imitar un Distribuci\u00f3n de datos 3D para producir nubes de puntos de colores con detalles finos en m\u00faltiples resoluciones.<\/p>\n\n\n\n<p>\u201cHubo alg\u00fan trabajo que podr\u00eda generar objetos sint\u00e9ticos a partir de estos conjuntos de datos de modelos CAD\u201d, dijo. \u201cPero nadie pod\u00eda manejar el color todav\u00eda\u201d.<\/p>\n\n\n\n<p>Para probar su m\u00e9todo en una diversidad de formas, el equipo de Beksi eligi\u00f3 sillas, mesas, sof\u00e1s, aviones y motocicletas para su experimento. La herramienta permite a los investigadores acceder al n\u00famero casi infinito de posibles versiones del conjunto de objetos que genera el sistema de aprendizaje profundo.<\/p>\n\n\n\n<p>\u201cNuestro modelo primero aprende la estructura b\u00e1sica de un objeto a bajas resoluciones y se desarrolla gradualmente hacia detalles de alto nivel\u201d, explic\u00f3. \u201cLa red tambi\u00e9n aprende la relaci\u00f3n entre las partes del objeto y sus colores, por ejemplo, las patas de la silla\/mesa son del mismo color mientras que el asiento\/superior contrastan. Comenzamos poco a poco, trabajando con objetos y construyendo una jerarqu\u00eda para generar una escena sint\u00e9tica completa que ser\u00eda extremadamente \u00fatil para la rob\u00f3tica\u201d.<\/p>\n\n\n\n<p>Generaron 5000 muestras aleatorias para cada clase y realizaron una evaluaci\u00f3n utilizando varios m\u00e9todos diferentes. Evaluaron tanto la geometr\u00eda como el color de la nube de puntos usando una variedad de m\u00e9tricas comunes en el campo. Sus resultados mostraron que PCGAN es capaz de sintetizar nubes de puntos de alta calidad para una variedad dispar de clases de objetos.<\/p>\n\n\n\n<p><strong>SIM2REAL<\/strong><\/p>\n\n\n\n<p>Otro tema en el que est\u00e1 trabajando Beksi se conoce coloquialmente como &#039;sim2real&#039;. \u201cTiene datos de entrenamiento reales y datos de entrenamiento sint\u00e9ticos, y puede haber diferencias sutiles en c\u00f3mo un sistema de IA o un robot aprende de ellos\u201d, dijo. &quot;&#039;Sim2real&#039; analiza c\u00f3mo cuantificar esas diferencias y hacer que las simulaciones sean m\u00e1s realistas mediante la captura de la f\u00edsica de esa escena (fricci\u00f3n, colisiones, gravedad) y mediante el uso de trazado de rayos o fotones&quot;.<\/p>\n\n\n\n<p>El siguiente paso para el equipo de Beksi es implementar el software en un robot y ver c\u00f3mo funciona en relaci\u00f3n con la brecha entre el dominio simulado y el real.<\/p>\n\n\n\n<p>El entrenamiento del modelo PCGAN fue posible gracias al recurso de aprendizaje profundo Maverick 2 de TACC, al que Beksi y sus estudiantes pudieron acceder a trav\u00e9s del programa de Investigaci\u00f3n de Ciberinfraestructura de la Universidad de Texas (UTRC), que proporciona recursos inform\u00e1ticos a los investigadores en cualquiera de las 14 instituciones del Sistema UT.<\/p>\n\n\n\n<p>\u201cSi desea aumentar la resoluci\u00f3n para incluir m\u00e1s puntos y m\u00e1s detalles, ese aumento conlleva un aumento en el costo computacional\u201d, se\u00f1al\u00f3. \u201cNo tenemos esos recursos de hardware en mi laboratorio, por lo que era esencial utilizar TACC para hacerlo\u201d.<\/p>\n\n\n\n<p>Adem\u00e1s de las necesidades inform\u00e1ticas, Beksi requer\u00eda un amplio almacenamiento para la investigaci\u00f3n. \u201cEstos conjuntos de datos son enormes, especialmente las nubes de puntos 3D\u201d, dijo. \u201cGeneramos cientos de megabytes de datos por segundo; cada nube de puntos tiene alrededor de 1 mill\u00f3n de puntos. Necesitas una enorme cantidad de almacenamiento para eso\u201d.<\/p>\n\n\n\n<p>Si bien Beksi dice que el campo todav\u00eda est\u00e1 muy lejos de tener robots robustos realmente buenos que puedan ser aut\u00f3nomos durante largos per\u00edodos de tiempo, hacerlo beneficiar\u00eda a m\u00faltiples dominios, incluidos el cuidado de la salud, la fabricaci\u00f3n y la agricultura.<\/p>\n\n\n\n<p>\u201cLa publicaci\u00f3n es solo un peque\u00f1o paso hacia el objetivo final de generar escenas sint\u00e9ticas de ambientes interiores para mejorar las capacidades de percepci\u00f3n rob\u00f3tica\u201d, dijo.<\/p>\n\n\n\n<hr class=\"wp-block-separator\" \/>\n\n\n\n<p><strong>Fuente de la historia:<\/strong><\/p>\n\n\n\n<p><a href=\"https:\/\/www.tacc.utexas.edu\/-\/how-to-train-a-robot-using-ai-and-supercomputers-\" rel=\"noreferrer noopener\" target=\"_blank\">Materiales<\/a>&nbsp;proporcionado por&nbsp;<a href=\"http:\/\/www.tacc.utexas.edu\/\" rel=\"noreferrer noopener\" target=\"_blank\"><strong>Universidad de Texas en Austin, Centro de Computaci\u00f3n Avanzada de Texas<\/strong><\/a>. Original escrito por Aaron Dubrow.&nbsp;<em>Nota: el contenido se puede editar por estilo y longitud.<\/em><\/p>","protected":false},"excerpt":{"rendered":"<p>Los cient\u00edficos inform\u00e1ticos desarrollaron un m\u00e9todo de aprendizaje profundo para crear objetos realistas para entornos virtuales que se pueden usar para entrenar robots. Los investigadores utilizaron la supercomputadora Maverick2 de TACC para entrenar la red antag\u00f3nica generativa. La red es la primera que puede producir nubes de puntos de colores con detalles finos en m\u00faltiples resoluciones. Fuente:Universidad de Texas en Austin, [\u2026]<\/p>","protected":false},"author":2,"featured_media":652,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[23,2],"tags":[],"class_list":{"0":"post-644","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-luxury-tech","8":"category-luxury-toys"},"_links":{"self":[{"href":"https:\/\/www.luxurymarketreview.com\/es\/wp-json\/wp\/v2\/posts\/644","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.luxurymarketreview.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.luxurymarketreview.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/es\/wp-json\/wp\/v2\/comments?post=644"}],"version-history":[{"count":0,"href":"https:\/\/www.luxurymarketreview.com\/es\/wp-json\/wp\/v2\/posts\/644\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/es\/wp-json\/wp\/v2\/media\/652"}],"wp:attachment":[{"href":"https:\/\/www.luxurymarketreview.com\/es\/wp-json\/wp\/v2\/media?parent=644"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/es\/wp-json\/wp\/v2\/categories?post=644"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/es\/wp-json\/wp\/v2\/tags?post=644"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}