Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Bild

Siren: Diese Frau stammt aus dem Computer.

Raytracing ist die Zukunft des Gamings und ermöglicht Spiele mit Wahnsinnsgrafik

Microsoft, Spiele-Entwickler und Grafikkarten-Hersteller arbeiten zusammen, um die Grafik in Games endlich real erscheinen zu lassen. Eine komplexe, aber mit der künftigen Hardware-Generation lösbare Aufgabe.



Lebensechte Figuren und glaubhafte Umgebungen sind der Traum der meisten Game-Designer. Bislang ist das nur in Ansätzen und mit sehr viel Aufwand möglich, beispielsweise in Rennspielen. 3D-Objekte wie Autos und die Umgebungsgrafik können in mühseliger Arbeit so lange modelliert werden, bis das Spiel quasi fotorealistisch aussieht. Vor allem bei Licht und Schatten braucht es aber viele programmiertechnische Kniffe, um Realismus vorzutäuschen. Mit Raytracing in Echtzeit soll dies nun viel einfacher werden. Stark vereinfacht gesagt macht Raytracing 3D-Computergrafik schöner – sehr viel schöner.

Die Raytracing-Technologie wird schon länger für visuelle Effekte in Blockbuster-Filmen genutzt. Mit Echtzeit-Raytracing sollen Lichteffekte, Schatten und Spiegelungen künftig auch in Games so real erscheinen, wie es bislang nur in teuren Filmproduktionen wie «Blade Runner 2049» zu sehen ist. Das Problem: Raytracing benutzt komplexe Algorithmen und verlangt daher für Echtzeitberechnungen sehr viel Rechenkraft. Lichtreflexionen müssen beispielsweise je nach Oberfläche, auf die sie treffen, speziell berechnet werden. Erst dann wirkt ein Film oder ein Computerspiel wirklich realistisch.

Nun haben der Spiele-Entwickler Epic Games und der Grafikkarten-Hersteller Nvidia eine Echtzeit-Raytracing-Demo erschaffen, die kaum von einem Film unterscheidbar ist. Die Techdemo spielt im Star-Wars-Universum und gibt uns einen Vorgeschmack, wie Spiele irgendwann aussehen werden.

Echtzeit-Raytracing-Demo

abspielen

Die Demo zeigt in Echtzeit berechnete Reflexionen und Spiegelungen. Video: YouTube/Jeffrey Grubb

Dank schnellerer Grafikchips wird Raytracing endlich auch für Videospiele nutzbar. Chip-Hersteller wie Nvidia und AMD arbeiten dazu gemeinsam mit Spiele-Firmen wie Epic Games und Windows-Entwickler Microsoft. Microsoft hat soeben die neue Schnittstelle DirectX Raytracing (DXR) vorgestellt, die DirectX 12 erweitert. Mit ihr lassen sich quasi-fotorealistische 3D-Szenen für PC-Games erstellen. Mit Nvidias und Microsofts Hilfe will Epic Games Echtzeit-Raytracing für Nutzer der Unreal Engine bis spätestens Ende Jahr zur Verfügung stellen.

Ist es ein Film oder ein Game?

abspielen

Die Raytracing-Demo lässt die Grenzen zwischen Realität und Computergrafik verschwimmen. Video: YouTube/Unreal Engine

Die in den oben stehenden Videos zu sehende Tech-Demo basiert auf der bekannten Unreal Engine 4, benötigt allerdings Hardware (Nvidia DGX Station) im Wert von mehr als 60'000 Franken. Die ersten Grafikkarten mit Raytracing-Unterstützung für den Heimgebrauch werden mehrere tausend Franken kosten. Bis 3D-Spiele auf breiter Front fotorealistisch aussehen, wird es also doch noch eine Weile dauern.

Raytracing ist das eine, realistische Mimik von Menschen das andere

Menschliche Emotionen wirklich realistisch auf Spielehelden übertragen, kann (bislang) kein Algorithmus. Hierfür braucht es aufwändige Motion-Capture-Verfahren. Das Resultat zeigt Epic Games im folgenden Video.

Diese Frau ist zu 100 Prozent digital

abspielen

Die Techdemo wurde mit Bewegungs-Erfassung in Echtzeit und Epics Unreal Engine 4 produziert. Video: YouTube/Unreal Engine

Siren ist eine Digitalfigur, die auf dem Abbild einer chinesischen Schauspielerin basiert. Bei Live-Motion-Capture (Bewegungs-Erfassung in Echtzeit) wird ein Mensch gefilmt. Die Körper- und Fingerbewegungen der Schauspielerin werden auf einem Bildschirm erfasst, während die Daten in die Unreal Engine gestreamt werden. Auf einem zweiten Bildschirm bewegt sich die digitale Frau Siren nach dem Vorbild der chinesischen Schauspielerin – synchron und mit 60 Bildern pro Sekunde.

So wurde die digitale Frau erstellt

abspielen

Video: YouTube/Unreal Engine

Durch Echtzeit-Gesichtsanimation werden menschliche Emotionen quasi auf digitale Menschen in Games, Filmen oder der Werbung gespiegelt. Epic Games sagt, Siren sei erst der Anfang und werde nebst der Game-Branche auch verwandte Branchen wie Film, Marketing und Werbung massiv verändern.

Siren ist faszinierend und gruselig zugleich, aber das ist die Zukunft meistens.

(oli)

Diese 19 Grafiken beschreiben perfekt, wie die heutige Generation funktioniert

Das könnte dich auch interessieren:

Der Mann, der es wagt, Trump zu widersprechen

Link zum Artikel

Auto prallt auf A3 in Tunnelportal

Link zum Artikel

Magic Johnson vs. Larry Bird – ein College-Final als Beginn einer grossen Sportrivalität

Link zum Artikel

4 Gründe, weshalb die Corona-Zahlen des BAG wenig mit der Realität zu tun haben

Link zum Artikel

Lasst meinen Sex in Ruhe, ihr Ehe- und Kartoffel-Fanatiker!

Link zum Artikel

Die Schweiz befindet sich im Notstand – die 18 wichtigsten Antworten zur neuen Lage

Link zum Artikel

Wie ich nach 3 Stunden Möbelhaus von Wolke 7 plumpste

Link zum Artikel

So lief Tag 1 nach Bekanntgabe der «ausserordentliche Lage» für die Schweiz

Link zum Artikel

Das iPad kriegt Radar? Darum ist der Lidar-Sensor eine kleine Revolution

Link zum Artikel

Die Fallzahlen steigen wieder leicht an – so sieht's in deinem Kanton aus

Link zum Artikel

Corona International: EU beschliesst Einreisestopp ++ Italien mit 345 neuen Todesopfern

Link zum Artikel

Ein Virus beendet Jonas Hillers Karriere: «Es gäbe noch viel schlimmere Szenarien»

Link zum Artikel

Wie ansteckend sind Kinder wirklich? Was die Wissenschaft bis jetzt dazu weiss

Link zum Artikel
Alle Artikel anzeigen
DANKE FÜR DIE ♥

Da du bis hierhin gescrollt hast, gehen wir davon aus, dass dir unser journalistisches Angebot gefällt. Wie du vielleicht weisst, haben wir uns kürzlich entschieden, bei watson keine Login-Pflicht einzuführen. Auch Bezahlschranken wird es bei uns keine geben. Wir möchten möglichst keine Hürden für den Zugang zu watson schaffen, weil wir glauben, es sollten sich in einer Demokratie alle jederzeit und einfach mit Informationen versorgen können. Falls du uns dennoch mit einem kleinen Betrag unterstützen willst, dann tu das doch hier.

Würdest du gerne watson und Journalismus unterstützen?

(Du wirst zu stripe.com umgeleitet um die Zahlung abzuschliessen)

Oder unterstütze uns mit deinem Wunschbetrag per Banküberweisung.

Nicht mehr anzeigen

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

14
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
14Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • Bene86 26.03.2018 11:48
    Highlight Highlight Finde ich mittlerweile eher Besorgniserregend.

    Man stelle sich vor, was solche Technologien in den falschen Händen verursachen können. (Z.B. Videobotschaft von Kim mit der Drohung, eine Atombombe abzufeuern).

    Einfach mal ein wenig durch den Kopf gehen lassen, das Ganze.
  • AustinOsmanSpare 24.03.2018 19:37
    Highlight Highlight Raytracing ist 20 Jahre alt.
  • MasterPain 23.03.2018 23:54
    Highlight Highlight «3D-Objekte wie Autos und die Umgebungsgrafik können in mühseliger Arbeit so lange modelliert werden, bis das Spiel quasi fotorealistisch aussieht. Mit Raytracing soll dies nun alles viel einfacher werden»

    Raytracing ist eine Renderingmethode und hat jetzt aber mal gar nix mit dem Modelling zu tun. Ausserdem ist GI (Global Illumination) oder Radiosity schon seit über 15 Jahren Standard. Raytracing ist völlig veraltet. Ausser die Definition für Raytracing wurde geändert.
    • peigi 24.03.2018 08:39
      Highlight Highlight Echtzeit Raytracing erlaubt echte, korrekte Schatten, Reflexionen und auch echte Global Illumination. Was Games bis jetzt bieten sind sehr clevere Tricks die ähnlich aussehen, wie GI und Raytracing. Es ist aber immer eine Mischung aus Echtzeit Berechnung und vorab gerenderten Assets wie z.B. Shadow Maps, „gebackene Texturen“ etc.
      Ich arbeite in der Architektur und echtzeit Raytracing ist z.B. extrem spannend für akkurate Visualisierungen von Licht und Schatten ohne gleich 2000.- pro Bild fürs Rendern auszugeben.
    • MasterPain 24.03.2018 09:46
      Highlight Highlight Als ich noch 3D gemacht habe, war Raytracing wesentlich schneller als GI. Vielleicht wurde aber der Begriff ergänzt. Rqytracing beinhaltete zu meiner Zeit zum Beispiel nich kein Streulicht oder Bounces, das hiess wenn der Lichtstrahl auf ein Objekt traf verendete er, anstatt vom Objekt abzuprallen und abgeschwächt die Umgebung zu Beleuchten und weiter zu bouncen und weiter und weiter... Dafür war Radiosity zuständig und wesentlich langsamer. Ist alles schon sehr lange her, vielleicht bringe ich die Begriffe etwas durcheinander. Jedenfalls nimmt einem Raytracing nicht das modellieren ab 😉
  • Zwerg Zwack 23.03.2018 23:46
    Highlight Highlight Also die animierte Frau ist wirklich nicht schlecht, steckt aber für mich immer noch im Uncanny Valley fest.

    https://de.m.wikipedia.org/wiki/Uncanny_Valley
  • w'ever 23.03.2018 23:40
    Highlight Highlight
    des öfteren spiele auch ich sogenannte ego-shooter, aber wenn dann die gegner zu fotorealistisch aussehen... ich weiss nicht. da könnte ich ein wenig mühe haben.
    • road¦runner 24.03.2018 16:44
      Highlight Highlight Spätestens da wird sich dann der Staat einschalten und solche Spiele verbieten oder fordern, dass die Menschen durch Roboter ersetzt werden.
      Auch bereits geschehen, glaube es war in einem Teil von Half-Life.
      Mag mich auch an Spiele mit grünem Blut erinnern, da rotes zu realistisch sei.
  • The Snitcher 23.03.2018 23:40
    Highlight Highlight Ray tracing die Zukunft des gamings??
    Ein thema das seit über 10 jahren immer wieder durgekaut wird..
    Play Icon
  • goschi 23.03.2018 23:36
    Highlight Highlight Bei Siren habe ich das volle uncanny Valley
    • MasterPain 23.03.2018 23:55
      Highlight Highlight Total!
  • Lümmel 23.03.2018 23:33
    Highlight Highlight Also der Star Wars Demo Film ist ja mal voll für die Katz! Warum? Star Wars ist nicht Real. Wie soll ich dann den Realismus-Grad beurteilen können.
    Da ist das Video von der Frau schon sinnvoller. Dort sehe ich persönlich jetzt aber nicht so ein mega krasser Fortschritt. Ich finde dass zum Beispiel Uncharted auf der PS4 vergleichbar gut aussieht.
    • Lümmel 24.03.2018 11:46
      Highlight Highlight Hab auch nie gesagt dass die PS4 Hardwaremässig mithalten kann. Aber rein optisch ist die Gesichtsanimation m.M.n nicht so unterschiedlich.
  • Pbel 23.03.2018 23:24
    Highlight Highlight Raytracing ist jetzt nichts wirklich neues. Konnte mein Amiga 500 vor 20 Jahren auch. Nur brauchte er für eine Pyramide mit 4 Flächen einen Tag in 756x560 Pixeln. Das Neue ist die wirklich unglaubliche Geschwindigkeit.

Zoom hat's vermasselt – die unglaubliche Chronologie der Zoom-Fails

Zoom ist der grosse Profiteur der Corona-Pandemie. Über 200 Millionen Menschen tauschen sich täglich über die Videokonferenz-App aus. Doch nun tauchen täglich neue Probleme auf. IT-Experten nennen Zoom «ein Datenschutz-Desaster» oder schlicht «Schadsoftware».

Zoom wird seit Wochen von neuen Nutzern überrannt, da die Corona-Pandemie immer mehr Menschen dazu zwingt, von zuhause aus zu arbeiten. Das schlagende Argument des Skype-Rivalen sind die nahezu reibungslos funktionierenden Videoanrufe und Videokonferenzen. Egal ob mit zwei oder 100 Personen, egal ob am PC oder Smartphone, es funktioniert. Und zwar so einfach, dass es jede und jeder nutzen kann (sogar Boris Johnson).

>> Coronavirus: Alle News im Liveticker

Darum zoomen längst nicht nur …

Artikel lesen
Link zum Artikel