{"id":644,"date":"2021-01-20T13:05:42","date_gmt":"2021-01-20T13:05:42","guid":{"rendered":"https:\/\/www.luxurymarketreview.com\/?p=644"},"modified":"2021-01-21T18:24:38","modified_gmt":"2021-01-21T18:24:38","slug":"how-to-train-a-robot-using-ai-and-supercomputers","status":"publish","type":"post","link":"https:\/\/www.luxurymarketreview.com\/pt\/2021\/01\/20\/how-to-train-a-robot-using-ai-and-supercomputers\/","title":{"rendered":"Como treinar um rob\u00f4 (usando IA e supercomputadores)"},"content":{"rendered":"<h2 class=\"wp-block-heading\">Cientistas da computa\u00e7\u00e3o desenvolveram um m\u00e9todo de aprendizado profundo para criar objetos realistas para ambientes virtuais que podem ser usados para treinar rob\u00f4s. Os pesquisadores usaram o supercomputador Maverick2 da TACC para treinar a rede advers\u00e1ria generativa. A rede \u00e9 a primeira que pode produzir nuvens de pontos coloridas com detalhes finos em v\u00e1rias resolu\u00e7\u00f5es.<\/h2>\n\n\n\n<p>Fonte:Universidade do Texas em Austin, Texas Advanced Computing Center<\/p>\n\n\n\n<p id=\"first\">Antes de ingressar na Universidade do Texas em Arlington como professor assistente no Departamento de Ci\u00eancia da Computa\u00e7\u00e3o e Engenharia e fundar o Robotic Vision Laboratory l\u00e1, William Beksi estagiou na iRobot, o maior produtor mundial de rob\u00f4s de consumo (principalmente atrav\u00e9s de seu v\u00e1cuo rob\u00f3tico Roomba) .<\/p>\n\n\n\n<p>Para navegar em ambientes constru\u00eddos, os rob\u00f4s devem ser capazes de sentir e tomar decis\u00f5es sobre como interagir com sua localidade. Pesquisadores da empresa estavam interessados em usar m\u00e1quina e aprendizado profundo para treinar seus rob\u00f4s para aprender sobre objetos, mas isso requer um grande conjunto de dados de imagens. Embora existam milh\u00f5es de fotos e v\u00eddeos de quartos, nenhum foi filmado do ponto de vista de um v\u00e1cuo rob\u00f3tico. Os esfor\u00e7os para treinar usando imagens com perspectivas centradas no ser humano falharam.<\/p>\n\n\n\n<p>A pesquisa de Beksi se concentra em rob\u00f3tica, vis\u00e3o computacional e sistemas ciber-f\u00edsicos. \u201cEm particular, estou interessado em desenvolver algoritmos que permitam que as m\u00e1quinas aprendam com suas intera\u00e7\u00f5es com o mundo f\u00edsico e adquiram de forma aut\u00f4noma as habilidades necess\u00e1rias para executar tarefas de alto n\u00edvel\u201d, disse ele.<\/p>\n\n\n\n<p>Anos mais tarde, agora com um grupo de pesquisa incluindo seis estudantes de doutorado em ci\u00eancia da computa\u00e7\u00e3o, Beksi relembrou o problema de treinamento do Roomba e come\u00e7ou a explorar solu\u00e7\u00f5es. Uma abordagem manual, usada por alguns, envolve o uso de uma cara c\u00e2mera de 360 graus para capturar ambientes (incluindo casas alugadas do Airbnb) e software personalizado para juntar as imagens em um todo. Mas Beksi acreditava que o m\u00e9todo de captura manual seria muito lento para ter sucesso.<\/p>\n\n\n\n<p>Em vez disso, ele buscou uma forma de aprendizado profundo conhecida como redes advers\u00e1rias generativas, ou GANs, onde duas redes neurais competem entre si em um jogo at\u00e9 que o &#039;gerador&#039; de novos dados possa enganar um &#039;discriminador&#039;. Uma vez treinada, tal rede permitiria a cria\u00e7\u00e3o de um n\u00famero infinito de salas ou ambientes externos poss\u00edveis, com diferentes tipos de cadeiras ou mesas ou ve\u00edculos com formas ligeiramente diferentes, mas ainda \u2013 para uma pessoa e um rob\u00f4 \u2013 objetos identific\u00e1veis com dimens\u00f5es reconhec\u00edveis e caracter\u00edsticas.<\/p>\n\n\n\n<p>\u201cVoc\u00ea pode perturbar esses objetos, mov\u00ea-los para novas posi\u00e7\u00f5es, usar luzes, cores e texturas diferentes e renderiz\u00e1-los em uma imagem de treinamento que pode ser usada no conjunto de dados\u201d, explicou ele. \u201cEssa abordagem potencialmente forneceria dados ilimitados para treinar um rob\u00f4\u201d.<\/p>\n\n\n\n<p>\u201cProjetar manualmente esses objetos exigiria uma enorme quantidade de recursos e horas de trabalho humano, enquanto, se treinadas adequadamente, as redes geradoras podem faz\u00ea-los em segundos\u201d, disse Mohammad Samiul Arshad, estudante de p\u00f3s-gradua\u00e7\u00e3o do grupo de Beksi envolvido na pesquisa.<\/p>\n\n\n\n<p><strong>GERANDO OBJETOS PARA CENAS SINT\u00c9TICAS<\/strong><\/p>\n\n\n\n<p>Ap\u00f3s algumas tentativas iniciais, Beksi percebeu que seu sonho de criar cenas completas fotorrealistas estava fora de alcance. \u201cDemos um passo para tr\u00e1s e analisamos as pesquisas atuais para determinar como come\u00e7ar em uma escala menor \u2013 gerando objetos simples em ambientes.\u201d<\/p>\n\n\n\n<p>Beksi e Arshad apresentaram o PCGAN, a primeira rede adversarial generativa condicional a gerar nuvens de pontos coloridas densas em um modo n\u00e3o supervisionado, na Confer\u00eancia Internacional sobre Vis\u00e3o 3D (3DV) em novembro de 2020. Seu artigo, \u201cA Progressive Conditional Generative Adversarial Network for Generating Nuvens de pontos 3D densas e coloridas\u201d, mostra que sua rede \u00e9 capaz de aprender com um conjunto de treinamento (derivado do ShapeNetCore, um banco de dados de modelo CAD) e imitar uma distribui\u00e7\u00e3o de dados 3D para produzir nuvens de pontos coloridas com detalhes finos em v\u00e1rias resolu\u00e7\u00f5es.<\/p>\n\n\n\n<p>\u201cHouve algum trabalho que poderia gerar objetos sint\u00e9ticos a partir desses conjuntos de dados de modelos CAD\u201d, disse ele. \u201cMas ningu\u00e9m ainda conseguia lidar com cores.\u201d<\/p>\n\n\n\n<p>Para testar seu m\u00e9todo em uma diversidade de formas, a equipe de Beksi escolheu cadeiras, mesas, sof\u00e1s, avi\u00f5es e motocicletas para o experimento. A ferramenta permite que os pesquisadores acessem o n\u00famero quase infinito de vers\u00f5es poss\u00edveis do conjunto de objetos que o sistema de aprendizado profundo gera.<\/p>\n\n\n\n<p>\u201cNosso modelo primeiro aprende a estrutura b\u00e1sica de um objeto em baixas resolu\u00e7\u00f5es e gradualmente constr\u00f3i detalhes de alto n\u00edvel\u201d, explicou ele. \u201cA rela\u00e7\u00e3o entre as partes do objeto e suas cores \u2013 por exemplo, as pernas da cadeira\/mesa s\u00e3o da mesma cor enquanto o assento\/topo s\u00e3o contrastantes \u2013 tamb\u00e9m \u00e9 aprendida pela rede. Estamos come\u00e7ando pequeno, trabalhando com objetos e construindo uma hierarquia para gerar uma cena sint\u00e9tica completa que seria extremamente \u00fatil para a rob\u00f3tica.\u201d<\/p>\n\n\n\n<p>Eles geraram 5.000 amostras aleat\u00f3rias para cada classe e realizaram uma avalia\u00e7\u00e3o usando v\u00e1rios m\u00e9todos diferentes. Eles avaliaram a geometria e a cor da nuvem de pontos usando uma variedade de m\u00e9tricas comuns no campo. Seus resultados mostraram que o PCGAN \u00e9 capaz de sintetizar nuvens de pontos de alta qualidade para uma variedade d\u00edspar de classes de objetos.<\/p>\n\n\n\n<p><strong>SIM2REAL<\/strong><\/p>\n\n\n\n<p>Outra quest\u00e3o em que Beksi est\u00e1 trabalhando \u00e9 conhecida coloquialmente como &#039;sim2real&#039;. \u201cVoc\u00ea tem dados de treinamento reais e dados de treinamento sint\u00e9ticos, e pode haver diferen\u00e7as sutis em como um sistema de IA ou rob\u00f4 aprende com eles\u201d, disse ele. \u201c&#039;Sim2real&#039; analisa como quantificar essas diferen\u00e7as e tornar as simula\u00e7\u00f5es mais realistas, capturando a f\u00edsica dessa cena \u2013 atrito, colis\u00f5es, gravidade \u2013 e usando rastreamento de raios ou f\u00f3tons.\u201d<\/p>\n\n\n\n<p>O pr\u00f3ximo passo para a equipe de Beksi \u00e9 implantar o software em um rob\u00f4 e ver como ele funciona em rela\u00e7\u00e3o \u00e0 lacuna de dom\u00ednio do simulador para o real.<\/p>\n\n\n\n<p>O treinamento do modelo PCGAN foi possibilitado pelo recurso de aprendizado profundo Maverick 2 da TACC, que Beksi e seus alunos puderam acessar por meio do programa de Pesquisa de infraestrutura cibern\u00e9tica (UTRC) da Universidade do Texas, que fornece recursos de computa\u00e7\u00e3o para pesquisadores em qualquer um dos sistemas do UT System. 14 institui\u00e7\u00f5es.<\/p>\n\n\n\n<p>\u201cSe voc\u00ea deseja aumentar a resolu\u00e7\u00e3o para incluir mais pontos e mais detalhes, esse aumento vem com um aumento no custo computacional\u201d, observou ele. \u201cN\u00e3o temos esses recursos de hardware em meu laborat\u00f3rio, ent\u00e3o foi essencial usar o TACC para fazer isso.\u201d<\/p>\n\n\n\n<p>Al\u00e9m das necessidades de computa\u00e7\u00e3o, Beksi exigia armazenamento extensivo para a pesquisa. \u201cEsses conjuntos de dados s\u00e3o enormes, especialmente as nuvens de pontos 3D\u201d, disse ele. \u201cGeramos centenas de megabytes de dados por segundo; cada nuvem de pontos \u00e9 de cerca de 1 milh\u00e3o de pontos. Voc\u00ea precisa de uma enorme quantidade de armazenamento para isso.\u201d<\/p>\n\n\n\n<p>Embora Beksi diga que o campo ainda est\u00e1 longe de ter rob\u00f4s realmente bons e robustos que possam ser aut\u00f4nomos por longos per\u00edodos de tempo, isso beneficiaria v\u00e1rios dom\u00ednios, incluindo sa\u00fade, manufatura e agricultura.<\/p>\n\n\n\n<p>\u201cA publica\u00e7\u00e3o \u00e9 apenas um pequeno passo em dire\u00e7\u00e3o ao objetivo final de gerar cenas sint\u00e9ticas de ambientes internos para o avan\u00e7o das capacidades de percep\u00e7\u00e3o rob\u00f3tica\u201d, disse ele.<\/p>\n\n\n\n<hr class=\"wp-block-separator\" \/>\n\n\n\n<p><strong>Fonte da hist\u00f3ria:<\/strong><\/p>\n\n\n\n<p><a href=\"https:\/\/www.tacc.utexas.edu\/-\/how-to-train-a-robot-using-ai-and-supercomputers-\" rel=\"noreferrer noopener\" target=\"_blank\">Materiais<\/a>&nbsp;fornecido por&nbsp;<a href=\"http:\/\/www.tacc.utexas.edu\/\" rel=\"noreferrer noopener\" target=\"_blank\"><strong>Universidade do Texas em Austin, Texas Advanced Computing Center<\/strong><\/a>. Original escrito por Aaron Dubrow.&nbsp;<em>Nota: o conte\u00fado pode ser editado quanto ao estilo e comprimento.<\/em><\/p>","protected":false},"excerpt":{"rendered":"<p>Computer scientists developed a deep learning method to create realistic objects for virtual environments that can be used to train robots. The researchers used TACC&#8217;s Maverick2 supercomputer to train the generative adversarial network. The network is the first that can produce colored point clouds with fine details at multiple resolutions. Source:University of Texas at Austin, [&hellip;]<\/p>","protected":false},"author":2,"featured_media":652,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[23,2],"tags":[],"class_list":{"0":"post-644","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-luxury-tech","8":"category-luxury-toys"},"_links":{"self":[{"href":"https:\/\/www.luxurymarketreview.com\/pt\/wp-json\/wp\/v2\/posts\/644","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.luxurymarketreview.com\/pt\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.luxurymarketreview.com\/pt\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/pt\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/pt\/wp-json\/wp\/v2\/comments?post=644"}],"version-history":[{"count":0,"href":"https:\/\/www.luxurymarketreview.com\/pt\/wp-json\/wp\/v2\/posts\/644\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/pt\/wp-json\/wp\/v2\/media\/652"}],"wp:attachment":[{"href":"https:\/\/www.luxurymarketreview.com\/pt\/wp-json\/wp\/v2\/media?parent=644"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/pt\/wp-json\/wp\/v2\/categories?post=644"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/pt\/wp-json\/wp\/v2\/tags?post=644"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}