{"id":644,"date":"2021-01-20T13:05:42","date_gmt":"2021-01-20T13:05:42","guid":{"rendered":"https:\/\/www.luxurymarketreview.com\/?p=644"},"modified":"2021-01-21T18:24:38","modified_gmt":"2021-01-21T18:24:38","slug":"how-to-train-a-robot-using-ai-and-supercomputers","status":"publish","type":"post","link":"https:\/\/www.luxurymarketreview.com\/de\/2021\/01\/20\/how-to-train-a-robot-using-ai-and-supercomputers\/","title":{"rendered":"Wie man einen Roboter trainiert (mit KI und Supercomputern)"},"content":{"rendered":"<h2 class=\"wp-block-heading\">Informatiker haben eine Deep-Learning-Methode entwickelt, um realistische Objekte f\u00fcr virtuelle Umgebungen zu erstellen, mit denen Roboter trainiert werden k\u00f6nnen. Die Forscher nutzten den Maverick2-Supercomputer von TACC, um das generative gegnerische Netzwerk zu trainieren. Das Netzwerk ist das erste, das farbige Punktwolken mit feinen Details in mehreren Aufl\u00f6sungen erzeugen kann.<\/h2>\n\n\n\n<p>Quelle:University of Texas at Austin, Texas Advanced Computing Center<\/p>\n\n\n\n<p id=\"first\">Bevor William Beksi als Assistenzprofessor an der Fakult\u00e4t f\u00fcr Informatik und Ingenieurwissenschaften an die University of Texas in Arlington wechselte und dort das Robotic Vision Laboratory gr\u00fcndete, absolvierte er ein Praktikum bei iRobot, dem weltweit gr\u00f6\u00dften Hersteller von Verbraucherrobotern (haupts\u00e4chlich durch seinen Roomba-Roboterstaubsauger). .<\/p>\n\n\n\n<p>Um in gebauten Umgebungen navigieren zu k\u00f6nnen, m\u00fcssen Roboter in der Lage sein, ihren Standort zu erkennen und Entscheidungen dar\u00fcber zu treffen, wie sie mit ihm interagieren. Die Forscher des Unternehmens waren daran interessiert, ihren Robotern mithilfe von maschinellem und tiefem Lernen das Erlernen von Objekten beizubringen. Daf\u00fcr ist jedoch ein gro\u00dfer Datensatz an Bildern erforderlich. Obwohl es Millionen von Fotos und Videos von R\u00e4umen gibt, wurde keines davon aus der Perspektive eines Roboterstaubsaugers aufgenommen. Versuche, mithilfe von Bildern aus menschenzentrierten Perspektiven zu trainieren, scheiterten.<\/p>\n\n\n\n<p>Beksis Forschungsschwerpunkte liegen in den Bereichen Robotik, Computer Vision und Cyber-Physical Systems. \u201eIch interessiere mich insbesondere f\u00fcr die Entwicklung von Algorithmen, die es Maschinen erm\u00f6glichen, aus ihren Interaktionen mit der physischen Welt zu lernen und sich autonom F\u00e4higkeiten anzueignen, die f\u00fcr die Ausf\u00fchrung anspruchsvoller Aufgaben erforderlich sind\u201c, sagte er.<\/p>\n\n\n\n<p>Jahre sp\u00e4ter, mittlerweile mit einer Forschungsgruppe bestehend aus sechs Doktoranden der Informatik, erinnerte sich Beksi an das Roomba-Trainingsproblem und begann, nach L\u00f6sungen zu suchen. Ein manueller Ansatz, den einige nutzen, besteht darin, eine teure 360-Grad-Kamera zur Aufnahme von Umgebungen (einschlie\u00dflich gemieteter Airbnb-H\u00e4user) zu verwenden und eine benutzerdefinierte Software zu verwenden, um die Bilder wieder zu einem Ganzen zusammenzuf\u00fcgen. Beksi glaubte jedoch, dass die manuelle Erfassungsmethode zu langsam sein w\u00fcrde, um erfolgreich zu sein.<\/p>\n\n\n\n<p>Stattdessen wandte er sich einer Form des Deep Learning zu, die als \u201eGenerative Adversarial Networks\u201c oder GANs bekannt ist und bei der zwei neuronale Netze in einem Spiel gegeneinander antreten, bis der \u201eGenerator\u201c neuer Daten einen \u201eDiskriminator\u201c t\u00e4uschen kann. Einmal trainiert, w\u00fcrde ein solches Netzwerk die Schaffung einer unendlichen Anzahl m\u00f6glicher R\u00e4ume oder Au\u00dfenumgebungen erm\u00f6glichen, mit verschiedenen Arten von St\u00fchlen oder Tischen oder Fahrzeugen mit leicht unterschiedlichen Formen, aber dennoch \u2013 f\u00fcr eine Person und einen Roboter \u2013 identifizierbare Objekte mit erkennbaren Abmessungen und Eigenschaften.<\/p>\n\n\n\n<p>\u201eSie k\u00f6nnen diese Objekte st\u00f6ren, sie an neue Positionen bewegen, unterschiedliche Lichter, Farben und Texturen verwenden und sie dann in ein Trainingsbild rendern, das in einem Datensatz verwendet werden k\u00f6nnte\u201c, erkl\u00e4rte er. \u201eDieser Ansatz w\u00fcrde potenziell unbegrenzte Daten liefern, mit denen ein Roboter trainiert werden kann.\u201c<\/p>\n\n\n\n<p>\u201eDas manuelle Entwerfen dieser Objekte w\u00fcrde eine enorme Menge an Ressourcen und Stunden menschlicher Arbeit erfordern, w\u00e4hrend die generativen Netzwerke sie bei richtiger Schulung in Sekundenschnelle herstellen k\u00f6nnen\u201c, sagte Mohammad Samiul Arshad, ein Doktorand in Beksis Gruppe, der an der Forschung beteiligt war.<\/p>\n\n\n\n<p><strong>OBJEKTE F\u00dcR SYNTHETISCHE SZENEN GENERIEREN<\/strong><\/p>\n\n\n\n<p>Nach einigen ersten Versuchen erkannte Beksi, dass sein Traum, fotorealistische Gesamtszenen zu schaffen, derzeit au\u00dfer Reichweite war. \u201eWir sind einen Schritt zur\u00fcckgetreten und haben uns aktuelle Forschungsergebnisse angesehen, um herauszufinden, wie wir in einem kleineren Ma\u00dfstab beginnen k\u00f6nnen \u2013 der Generierung einfacher Objekte in Umgebungen.\u201c<\/p>\n\n\n\n<p>Beksi und Arshad stellten auf der International Conference on 3D Vision (3DV) im November 2020 PCGAN vor, das erste bedingte generative gegnerische Netzwerk, das in einem unbeaufsichtigten Modus dichte farbige Punktwolken erzeugt. Ihr Artikel \u201eA Progressive Conditional Generative Adversarial Network for Generating Dense and Colored 3D Point Clouds\u201c zeigt, dass ihr Netzwerk in der Lage ist, aus einem Trainingssatz (abgeleitet von ShapeNetCore, einer CAD-Modelldatenbank) zu lernen und eine 3D-Datenverteilung nachzuahmen, um farbige Punktwolken mit feinen Details bei mehreren Aufl\u00f6sungen zu erzeugen.<\/p>\n\n\n\n<p>\u201eEs gab einige Arbeiten, mit denen aus diesen CAD-Modelldatens\u00e4tzen synthetische Objekte generiert werden konnten\u201c, sagte er. \u201eAber mit Farbe konnte noch niemand umgehen.\u201c<\/p>\n\n\n\n<p>Um ihre Methode an einer Vielzahl von Formen zu testen, w\u00e4hlte Beksis Team St\u00fchle, Tische, Sofas, Flugzeuge und Motorr\u00e4der f\u00fcr ihr Experiment aus. Das Tool erm\u00f6glicht den Forschern den Zugriff auf die nahezu unbegrenzte Anzahl m\u00f6glicher Versionen der Objektmenge, die das Deep-Learning-System generiert.<\/p>\n\n\n\n<p>\u201eUnser Modell lernt zun\u00e4chst die Grundstruktur eines Objekts bei niedrigen Aufl\u00f6sungen und baut sich dann schrittweise zu Details auf hoher Ebene auf\u201c, erkl\u00e4rte er. \u201eDie Beziehung zwischen den Objektteilen und ihren Farben \u2013 zum Beispiel haben die Beine des Stuhls\/Tisches die gleiche Farbe, w\u00e4hrend Sitz\/Oberseite einen Kontrast bilden \u2013 wird ebenfalls vom Netzwerk gelernt. Wir fangen klein an, arbeiten mit Objekten und bauen dann eine Hierarchie auf, um eine vollsynthetische Szenengenerierung durchzuf\u00fchren, die f\u00fcr die Robotik \u00e4u\u00dferst n\u00fctzlich w\u00e4re.\u201c<\/p>\n\n\n\n<p>Sie generierten f\u00fcr jede Klasse 5.000 Zufallsstichproben und f\u00fchrten eine Auswertung mit verschiedenen Methoden durch. Sie bewerteten sowohl die Geometrie als auch die Farbe der Punktwolke anhand einer Vielzahl g\u00e4ngiger Metriken in der Praxis. Ihre Ergebnisse zeigten, dass PCGAN in der Lage ist, qualitativ hochwertige Punktwolken f\u00fcr eine unterschiedliche Reihe von Objektklassen zu synthetisieren.<\/p>\n\n\n\n<p><strong>SIM2REAL<\/strong><\/p>\n\n\n\n<p>Ein weiteres Thema, an dem Beksi arbeitet, ist umgangssprachlich als \u201esim2real\u201c bekannt. \u201eEs gibt echte Trainingsdaten und synthetische Trainingsdaten, und es kann subtile Unterschiede darin geben, wie ein KI-System oder Roboter daraus lernt\u201c, sagte er. \u201e\u201aSim2real\u2018 untersucht, wie man diese Unterschiede quantifizieren und Simulationen realistischer gestalten kann, indem man die Physik dieser Szene \u2013 Reibung, Kollisionen, Schwerkraft \u2013 erfasst und Strahlen- oder Photonenverfolgung verwendet.\u201c<\/p>\n\n\n\n<p>Der n\u00e4chste Schritt f\u00fcr Beksis Team besteht darin, die Software auf einem Roboter bereitzustellen und zu sehen, wie sie im Zusammenhang mit der L\u00fccke zwischen der Simulation und der realen Dom\u00e4ne funktioniert.<\/p>\n\n\n\n<p>Das Training des PCGAN-Modells wurde durch die Deep-Learning-Ressource Maverick 2 von TACC erm\u00f6glicht, auf die Beksi und seine Studenten \u00fcber das Cyberinfrastructure Research (UTRC)-Programm der University of Texas zugreifen konnten, das Forschern an allen UT-Systemen Rechenressourcen zur Verf\u00fcgung stellt 14 Institutionen.<\/p>\n\n\n\n<p>\u201eWenn man die Aufl\u00f6sung erh\u00f6hen m\u00f6chte, um mehr Punkte und mehr Details einzubeziehen, geht diese Steigerung mit einem Anstieg der Rechenkosten einher\u201c, bemerkte er. \u201eDa wir in meinem Labor nicht \u00fcber diese Hardware-Ressourcen verf\u00fcgen, war es wichtig, daf\u00fcr TACC zu nutzen.\u201c<\/p>\n\n\n\n<p>Zus\u00e4tzlich zum Rechenbedarf ben\u00f6tigte Beksi f\u00fcr die Forschung umfangreiche Speicherkapazit\u00e4ten. \u201eDiese Datens\u00e4tze sind riesig, insbesondere die 3D-Punktwolken\u201c, sagte er. \u201eWir erzeugen Hunderte Megabyte an Daten pro Sekunde; Jede Punktwolke besteht aus etwa 1 Million Punkten. Daf\u00fcr braucht man enorm viel Speicherplatz.\u201c<\/p>\n\n\n\n<p>W\u00e4hrend Beksi sagt, dass der Bereich noch weit von wirklich guten, robusten Robotern entfernt ist, die \u00fcber lange Zeitr\u00e4ume autonom sein k\u00f6nnen, w\u00fcrde dies mehreren Bereichen zugute kommen, darunter dem Gesundheitswesen, der Fertigung und der Landwirtschaft.<\/p>\n\n\n\n<p>\u201eDie Ver\u00f6ffentlichung ist nur ein kleiner Schritt in Richtung des ultimativen Ziels, synthetische Szenen von Innenr\u00e4umen zu erzeugen, um die Wahrnehmungsf\u00e4higkeiten von Robotern zu verbessern\u201c, sagte er.<\/p>\n\n\n\n<hr class=\"wp-block-separator\" \/>\n\n\n\n<p><strong>Geschichte Quelle:<\/strong><\/p>\n\n\n\n<p><a href=\"https:\/\/www.tacc.utexas.edu\/-\/how-to-train-a-robot-using-ai-and-supercomputers-\" rel=\"noreferrer noopener\" target=\"_blank\">Materialien<\/a>&nbsp;zur Verf\u00fcgung gestellt von&nbsp;<a href=\"http:\/\/www.tacc.utexas.edu\/\" rel=\"noreferrer noopener\" target=\"_blank\"><strong>University of Texas in Austin, Texas Advanced Computing Center<\/strong><\/a>. Original geschrieben von Aaron Dubrow.&nbsp;<em>Hinweis: Der Inhalt kann hinsichtlich Stil und L\u00e4nge bearbeitet werden.<\/em><\/p>","protected":false},"excerpt":{"rendered":"<p>Informatiker haben eine Deep-Learning-Methode entwickelt, um realistische Objekte f\u00fcr virtuelle Umgebungen zu erstellen, mit denen Roboter trainiert werden k\u00f6nnen. Die Forscher nutzten den Maverick2-Supercomputer von TACC, um das generative gegnerische Netzwerk zu trainieren. Das Netzwerk ist das erste, das farbige Punktwolken mit feinen Details in mehreren Aufl\u00f6sungen erzeugen kann. Quelle:University of Texas in Austin, [\u2026]<\/p>","protected":false},"author":2,"featured_media":652,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[23,2],"tags":[],"class_list":{"0":"post-644","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-luxury-tech","8":"category-luxury-toys"},"_links":{"self":[{"href":"https:\/\/www.luxurymarketreview.com\/de\/wp-json\/wp\/v2\/posts\/644","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.luxurymarketreview.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.luxurymarketreview.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/de\/wp-json\/wp\/v2\/comments?post=644"}],"version-history":[{"count":0,"href":"https:\/\/www.luxurymarketreview.com\/de\/wp-json\/wp\/v2\/posts\/644\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/de\/wp-json\/wp\/v2\/media\/652"}],"wp:attachment":[{"href":"https:\/\/www.luxurymarketreview.com\/de\/wp-json\/wp\/v2\/media?parent=644"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/de\/wp-json\/wp\/v2\/categories?post=644"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.luxurymarketreview.com\/de\/wp-json\/wp\/v2\/tags?post=644"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}