> > > > GDC: Deep-Learning-Netzwerke helfen bei der Entwicklung von Spielen

GDC: Deep-Learning-Netzwerke helfen bei der Entwicklung von Spielen

Veröffentlicht am: von

nvidia 2013Machine Learning, AI, Deep Learning – diese Begriffe sind derzeit bei fast allen Herstellern und deren Präsentationen sehr beliebt. Oft wissen Nutzer gar nicht, dass sie bereits heute auf diese Techniken angewiesen sind. Digitale Assistenten, viele Cloud-Dienste und unzählige Anwendungen sind bereits heute auf solche Techniken angewiesen. NVIDIA arbeitet mit zahlreichen Entwicklern daran, dass solche Netzwerke künftig auch bei der Entwicklung von Spielen eine Rolle spielen.

Doch bei der Entwicklung von Spielen sollen Deep-Learning-Netzwerke helfen, die Spiele noch realistischer und noch besser zu machen. Dies zielt vor allem auf die grafische Darstellung ab, denn hier haben sich in jüngster Vergangenheit Techniken entwickelt, die eine enorme Menge an Daten produzieren, die dann später verarbeitet werden müssen.

Ein Beispiel ist das Motion Capturing, bei dem komplette Charaktere oder aber nur deren Gesichter mit Hilfe einer 3D-Erkennung erfasst und abgetastet werden. Auch wenn es bereits viel Software gibt, welche die Entwickler dabei unterstützten, so ist dennoch häufig noch eine manuelle Bearbeitung der Daten notwendig, da die Software Daten zwar zuweisen, im Fall der Fälle aber nicht bewerten kann, ob diese so auch stimmen können oder nicht. Deep-Learning-Netzwerke können aber derart trainiert werden, dass sie aus ihren Fehlern lernen und die Erkennung damit sukzessive verbessern.

Eine weitere Anwendung ist die Photogrammetrie. Dabei werden Texturen und 3D-Objekte mit Hilfe von Kameras abfotografiert und daraus eben eine digitale Textur oder ein 3D-Objekt erstellt. Auch hier helfen solche Netzwerke dabei, die Erfassung der Daten zu verbessern. Es ist aber auch möglich, die erfassten Daten in der Form weiter zu verarbeiten, dass zusätzliche Inhalte entstehen. So kann die Aufnahme eines Steinbodens derart verändert werden, dass die dazugehörige Textur und das 3D-Modell immer wieder zufällig angepasst wird, so dass keine Wiederholungen entstehen. Dies hilft dabei, eine virtuelle Welt natürlicher und realistischer zu gestalten.

Liegen keine hochauflösenden Daten vor, können solche Algorithmen dafür sorgen, dass ein Upscaling besser funktioniert als dies klassisch der Fall ist. NVIDIA bietet zu allen erwähnten Techniken eine entsprechende Plattform an, auf der sich Entwickler anmelden und dies ausprobieren können. Techniken wie die Photogrammetrie kommen bereits heute in Spielen zum Einsatz – allerdings ohne die Unterstützung von AI.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (5)

#1
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 4742
Hmmm... laut Wikipedia spricht man bei Deep Learning von "tiefgehendem Lernen", die genannten Einsatzgebiete haben zwar etwas mit "Lernen" zu tun, was durch die GPU beschleunigt werden kann - Ist uns ja allen bekannt, und sind somit ein Anwendungsgebiet für leistungsstarke Grafikkarten, doch das "tiefgehend" fehlt hier völlig. Deshalb fehlt der Bezug zu Einsatzgebieten, die wir mit GPUs wie Fiji und GP100 verbinden.
So nennt der Wikipedia- Artikel über Deep Learning auch zurecht keines dieser Anwendungsfelder, die bereits vor dem Hype um Deep Learning entstanden sind, ohne dass man je an Deep Learning dabei gedacht hätte.

Trotzdem ist die gleichmäßige Verteilung von Last auf GPU, CPU, RAM, VRAM, Caches - also die gebündelte Verwendung heterogener Ressourcen in einem Programm - eines der zentralen Themen in der Zukunft, was sich mit der Heterogeneous System Architecture(HSA) im Zusammenspiel mit der ROCm- Plattform von AMD auch deutlich abzeichnet.

Wenn die Aussage von Nvidia darauf abzielt, die Bedeutung von GPUs als preisgünstigen und hochverfügbaren CoProzessor in den Vordergrund zu rücken, ist schonmal der Zweck richtig. Nur die "Verpackung" für den Leser/Zuhörer ist dann irreführend, denn mit Deep Learning hat das nichts zu tun.
#2
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11121
Ähh, lies nicht nur die erste Zeile des Wiki Artikels.
Deep Learning hat in der Praxis nichts mit "tiefergehendes Lernen" zutun, sondern bezieht sich auf sogenannte "deep neuronal networks".
Diese Versuchen den Teil unseres Gehirns nachzubilden, welches für logisches Denken verantwortlich ist.
"tiefer" heisst mehr Zwischenschichten (Layers) aus simulierten Neuronen und erhöht die benötigte Rechenleistung drastisch, so dass man GPUs braucht bzw. diese hilfreich sind.
Noch besser sind dedizierte Computingeinheiten. Solche hat Google extra für sich entwickeln lassen, wenn ich mich nicht irre.

Was würdest du denn eigentlich als tieferes Lernen bezeichnen?
Aus den Kursen über KI ist mir solch eine Begrifflichkeit nicht bekannt.
#3
customavatars/avatar179024_1.gif
Registriert seit: 29.08.2012

Flottillenadmiral
Beiträge: 4742
Ich gehe bei [U]Deep[/U] Learning von einer sehr tiefen Rekursion mit sehr vielen Datensätzen aus, weit mehr als nötig ist, um ein einfaches Bild von 1080p auf 4K zu skalieren, was ja bereits Monitore mit einem integrierten, kleinen Chip ganz ordentlich beherrschen. Auch bei dem Entfernen von Objekten aus einem Photo, oder wie auf dem Bild, "Texture Multiplier" muss nur "gelernt" werden, welche Pixel in der Szene mit hoher Wahrscheinlichkeit neben anderen sind. Dabei ist auch zu beachten, dass die Resultate auch völlig Grütze sein können... sieht man ja auch, die Mauer sieht schon nach (höchstwahrscheinlich) einer einzigen Rekomposition bereits ziemlich kaputt aus und je öfter man vom ursprünglichen Bild abweicht, umso mehr Grütze entsteht. Besonders tief kann hier also noch nicht gelernt worden sein, da die Ergebnisse bei der Datendichte noch schwach sind ;)

Wenn man nun Millionen von Mauern abscannen würde, um exakte Parameter zum Erkennen von Mauern zu erhalten, [U]dann[/U] ist das für mich Deep Learning, und wenn Du beispielsweise einen Captcha von Google bekommst, wo Du Straßenschilder und Geschäftsfronten erkennen musst, darfst Du jetzt dreimal raten, warum :D - Google braucht Dich zum Sammeln der Parameter, die logischerweise aktuell in der Automobilindustrie sehr gefragt sind. Früher waren es einfache Zahlen und Buchstaben - heute ist man mit den Schildern eben einen Schritt weiter, jedoch muss man [U]Straßenschilder[/U] von anderen Schildern etc. unterscheiden können, da es sonst fatale Folgen haben könnte.
Wenn Du (und noch mehr Leute)also ein Straßenschild [U]nicht[/U] erkennst, was die Google- Rechenzentren als eines erkannt haben, wird das Bild als fehlerhaft erkannt getagged und das Pattern rekompiliert, was zum Erkennen der Schilder nötig ist(jedenfalls würde ein anderes Vorgehen keinen Sinn machen), sodass nicht nur dieses Bild korrekt erkannt wird, und die anderen, als korrekt erkannt markierten Bilder, weiterhin korrekt erkannt bleiben. Also im Prinzip wird, abstrakt betrachtet, eine Rechenvorschrift gebildet, die diese beiden Mengen vereint.

Ein Mensch lernt ja aufgrund des Wissens, was die anderen Gegenstände in einer Szene sind, extrem schnell(mit seinem eigenen Hochleistungs- Neuronal-Netz(Gehirn) ;)), neue Gegenstände zu identifizieren. Somit macht es auch Sinn, Seen, Bäume etc. zu erkennen, um bereits diese häufig auftretenden Objekte bei der Erkennung ausschließen zu können.

Du siehst also, dass diese einfachen Bildoperationen, die Nvidia hier nennt, eben für meine Begriffe nur im allerweitesten Sinne was mit Deep Learning zu tun haben, auch wenn Bildverarbeitung im komplexeren Rahmen hier große Überschneidungen hat(Zum Beispiel in der Form, wie Google es macht).
#4
customavatars/avatar33802_1.gif
Registriert seit: 21.01.2006

Korvettenkapitän
Beiträge: 2180
Was heiß denn realistischer?
Dem Trend der letzten 10 Jahre nach ja scheinbar immer dümmere KI, die selbst in den absolut realistischen Schlauchlevels schon massiv überfordert ist.
#5
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 11121
@oooverclocker
Dieses "deep learning" ist einfach kein richtig technischer Begriff. Ebensowenig wie "tieferes Lernen". Ist beim Menschen etwa irgendwo die Rede von "dieses Kind lernt nun tief"?
Es ist ein Medienbegriff und bezieht sich wie gesagt auf den Algorithmus. WAS man nun damit lernt , also im Sinne von, was das Resultat sein soll, ist irrelevant. Du kannst mit neuronalen Netzen sehr gut Klassifikationen bauen, bzw. das ist es was du beschreibst. Das System teilt am Ende zwischen Straßenschild und kein Straßenschild.
Nun ist ein tieferes neuronales Netz, in der Lage genauer einzuteilen, oder weiter zu differenzieren (unterschiedliche Straßenschilder).

Die Datensätze die durch diese Capchas vom Menschen generiert werden, dienen übrigens direkt dem Lernen. Damit werden die simulierten Neuronen eingestellt in einem "überwachten Lernverfahren".
Man unterscheidet solche Lernverfahren bei denen der gegebene Datensatz bereits klassifiziert ist (z.B. Straßenschild oder kein Straßenschild") von "unüberwachten" wo das Verfahren selbstständig lernt dass es schlichtweg einen Unterschied zwischen einem Bild mit Schild und einem ohne gibt, ohne zu "wissen" was, was ist (das ist manchmal besonders interessant, denn dabei sind schon Ergebnisse in Form von Unterscheidungskriterien erziehlt worden die dem, durch Erfahrung "vorbelasteten" Menschen garnicht auffallen würden).
Solch ein Verfahren eignet sich aber für Bilder eher mittelmäßig wenn die relevante Komponente (das Schild), nur einen kleinen Teil einnimmt.
Für überwachtes Lernen braucht man aber nun einen entsprechenden, möglichst großen, klassifizierten Datensatz und das ist es was durch die Capchas generiert wird.
Z.B. durch "Backpropagation" wird dieser Datensatz dann angewendet um die neuronen einzustellen.


Zitat Elmario;25359920
Was heiß denn realistischer?
Dem Trend der letzten 10 Jahre nach ja scheinbar immer dümmere KI, die selbst in den absolut realistischen Schlauchlevels schon massiv überfordert ist.

Lies dir mal was zur KI von Starcraft 2 durch! Die ist ein gutes Beispiel für top KIs. Bei der wurde auch schon automatisiert vom Menschen gelernt (wobei soweit ich weis nicht mit solchen Netzwerken sondern mit trivialeren Taktik-Modelierungen).

Realistsich heisst übrigens nicht automatsich fehlerfrei. Sie soll menschlich wirken.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

US Navy wegen Software-Piraterie auf fast 600 Millionen US-Dollar...

Logo von IMAGES/STORIES/LOGOS-2016/US-NAVY

Die US Navy ist von dem deutschen 3D-Softwareentwickler Bitmanagement wegen Software-Piraterie verklagt worden. Wie The Register berichtet, hat Bitmanagement bei dem US Court of Federal Claims Klage eingereicht, und fordert nicht weniger als 596.308.103 US Dollar Schadensersatz. Laut Klageschrift... [mehr]

AMD-Grafikkarten-Hersteller VTX3D verschwindet vom Markt

Logo von VTX3D

Vor allem für AMD-Partner sind schwere Zeiten angebrochen: Während der gesamte PC-Markt mit einer weltweit schwächelnden Nachfrage zu kämpfen hat, haben es die ersten Polaris-Grafikkarten gegen NVIDIAs Pascal-Modelle nicht leicht. Zwar kann die Radeon RX 480 leistungsmäßig durchaus mit der... [mehr]

Lohnt das Mining für den Privatanwender noch?

Logo von IMAGES/STORIES/2017/ETHEREUM

Bestimmte Grafikkartenmodelle sind schlecht verfügbar und einige Hersteller präsentieren sogar spezielle Mining-Modelle – bestes Anzeichen dafür, dass eine neue Mining-Welle anrollt. Ethereum basiert wie Bitcoins auf einer Blockchain-Technologie. Ethereum ist aber keine reine Kryptowährung,... [mehr]

Bitcoin droht der Hard Fork – Ethereum weiter auf niedrigem Kurs

Logo von IMAGES/STORIES/2017/ETHEREUM

Bereits in der vergangenen Woche deuteten sich einige Änderungen bei den Kryptowährungen an. Nach einem wochenlangen Hoch brach der Kurs des Ether auf weit unter 200 US-Dollar ein. Die Gründe dafür sind nicht immer ersichtlich. Oftmals gibt es auch Wechselwirkungen zwischen den einzelnen... [mehr]

AMD mit guten Quartalszahlen – Vega und Naples für Q2 bestätigt (Update)

Logo von IMAGES/STORIES/2017/AMD

AMD hat die ersten Quartalszahlen veröffentlicht, die nach dem Verkaufsstart der RYZEN-Prozessoren zusammengestellt wurden. Darin zeichnet das Unternehmen einen deutlichen Anstieg beim Umsatz aus, muss bisher aber noch auf Gewinne verzichten. Weitaus wichtiger aber ist, dass AMD in seinen... [mehr]

O2: Wer bei der Hotline nicht anruft, wird mit Datenvolumen belohnt (Update)

Logo von IMAGES/STORIES/2017/O2_LOGO

O2 war in den letzten Monaten aufgrund seiner schlecht erreichbaren Hotline immer wieder in der Kritik. Kunden mussten teilweise stundenlang in der Warteschleife warten, bis sich am anderen Ende der Leitung ein Mitarbeiter meldete. Dies ist einerseits darauf zurückzuführen, dass die Kapazitäten... [mehr]