Epic: Realismus bald erreicht // Unreal-Engine 4 Ende 2012

Bild von sw4pf1le
sw4pf1le 10811 EXP - 18 Doppel-Voter,R9,S3,A10
Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Archivar: Hat Stufe 10 der Archivar-Klasse erreichtVielspieler: Hat 250 Spiele in seine Sammlung eingetragenBronze-Archivar: Hat Stufe 6 der Archivar-Klasse erreichtLoyalist: Ist seit mindestens einem Jahr bei GG.de dabeiBronze-Reporter: Hat Stufe 7 der Reporter-Klasse erreichtScreenshot-Geselle: Hat 500 Screenshots hochgeladenDatenbank-Geselle: Hat 100 Steckbriefe angelegtDiskutierer: Hat 1000 EXP durch Comments erhaltenRedigier-Veteran: Verdiente 1000 EXP durch Edits fremder News/Artikel

12. Februar 2012 - 10:56 — vor 12 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Epic-Gründer Tim Sweeney wurde von der Academy of Interactive Arts & Sciences in ihre Hall of Fame aufgenommen, was ihn gleichzeitig zum Hauptredner der diesjährigen Fachtagung D.I.C.E. (Design, Innovate, Communicate, Entertain) macht. In seinem Panel beschäftigte sich Sweeney mit der Frage, wohin sich die Grafik von Computerspielen in den nächsten 20 Jahren entwickeln wird. Sweeneys These: Die Realismusgrenze ist bald erreicht.

Da das menschliche Auge nicht mehr als 72 Bilder pro Sekunden und etwa 8000 x 4000 Bildpunkte zu erkennen vermag, sei die technische Grenze zumindest bei der Wiedergabe bald erreicht. Einzig die Rechenleistung moderner Computer stelle hier noch eine Hürde dar. Doch Sweeney ist sich sicher:

Noch zu unseren Lebzeiten werden wir in der Lage sein, genug Rechenleistung aufzubringen um unsere Realität zu simulieren.

Beeindruckt zeigte sich Sweeney allerdings auch von den nicht-grafischen Entwicklungen der letzten Jahre. Er hob Apples Sprachsteuerung Siri für das iPhone und Microsofts Kinect-Steuerung hervor. Auch die Wii habe gezeigt, dass es in Zukunft nicht immer nur um die grafische Leistungsfähigkeit eines Spielegerätes gehen müsse. Weiterhin nahm Sweeney Gaikai und Onlive in seinen Lobesreigen mit auf, was erahnen lässt, wo für ihn die Zukunft der Spieleentwicklung liegt:

Die einzige Frage ist, ob die Spiele in deinem Wohnzimmer oder auf einem Server laufen. Dadurch wird sich nicht alles ändern, aber es wird die Sache für Spieler viel angenehmer machen.

Die Zukunft innerhalb von Epics Hauptgeschäftsfeld sehen aber sowohl Sweeney als auch sein langjähriger Mitstreiter Mark Rein rosig. Epics Vice President, der die Laudatio auf Tim Sweeney hielt, verriet nämlich, dass sich die Unreal-Engine auch weiterhin großer Beliebtheit für verschiedenste Projekte auf unterschiedlichen Plattformen erfreue, "einschließlich Systemen, die wir noch nicht nennen können". Die Implikation lässt erahnen, dass Epics neue Grafikgeneration bereits für Spiele der kommenden Konsolengenerationen verwendet wird, zumal Rein die einzig bestätigte Neukonsole WiiU explizit zuvor nannte. Ende des Jahres soll dann die neue Version 4 der Unreal-Engine endlich final sein. Was diese leisten soll, lässt eine Techdemo namens Samaritan erahnen, die Epic auf der letztjährigen Game Developers Conference präsentierte.

Video:

Stefan1904 30 Pro-Gamer - 128595 - 11. Februar 2012 - 12:09 #

Er spricht nicht vom Einsatz der UE4 (bzgl. der neuen Systeme), sondern allgemein von der UE. Über die UE4 spricht er erst danach. Hier der Link zur Ansprache: http://www.gamespot.com/shows/gamespot-live/?event=interactive_achievement_awards20120209 (Er ist bei ca. 1:30 Stunde zu sehen).

sw4pf1le 18 Doppel-Voter - 10811 - 11. Februar 2012 - 14:57 #

Bei mir kommen unter dem Link ab 1:30 endlose Preisverleihungen der AIAS, aber kein Mark Rein.

Stefan1904 30 Pro-Gamer - 128595 - 11. Februar 2012 - 15:41 #

Sorry, ist bei 1:13 Stunde.

sw4pf1le 18 Doppel-Voter - 10811 - 11. Februar 2012 - 16:17 #

Okay, danke. Hab's angepasst. Man wundert sich manchmal, was Spielejournalisten schreiben, die aus erster Hand berichten...

bersi (unregistriert) 11. Februar 2012 - 12:11 #

Dann sollten sie über eine Umbenennung in "Real 4" nachdenken.

q 17 Shapeshifter - 6811 - 11. Februar 2012 - 12:32 #

lol. flach, aber gut! Wo ist der Kudosbutton für Kommentare?

bolle 17 Shapeshifter - 7789 - 12. Februar 2012 - 11:55 #

oder die Real-Engine? Wenn sie die Realität abbildet ist eine Nummerierung ja nicht sinnvoll :)

q 17 Shapeshifter - 6811 - 11. Februar 2012 - 12:33 #

Bis auf den OnLive-Dung geb ich ihm vollkommen Recht. Die Sprünge, die in den letzten 20 Jahren gemacht wurden, sind eigentlich unglaublich. Bei manchen Rennspielen sehen die Autos ja schon aus wie auf Fotos.

DomKing 18 Doppel-Voter - 9954 - 11. Februar 2012 - 12:40 #

Das einzige Problem: realistische Grafik ist nicht gleich Realität.

Vidar 19 Megatalent - 15012 - 11. Februar 2012 - 12:46 #

"Da das menschliche Auge nicht mehr als 72 Bilder pro Sekunden und etwa 8000 x 4000 Bildpunkte zu erkennen vermag"

Wo hat er denn die Daten her?
Das menschliche Auge schafft nicht mehr als 25 bewegte (Vollbilder)Bilder in der Sekunde, lediglich das Flimmern wird bei mehr Bildern nicht mehr so stark aufgenommen

Und auch die Auflösung ist unsinn auf was bezieht er sich? Auf eine Hauswand?
Für eine Leinwand stimmt seine Aussage aber für den Hausgebrauch benötigt man kein so genanntes "Ultra HDTV/Quad-HD" damit die Augen keinen Unterschied mehr erkennen! Für den Normalen TV zuhause (40-60 Zoll) ist man da schon jetzt mit den 1080p an den Erkennungsgrenzen des Auges.

Anonymous (unregistriert) 11. Februar 2012 - 13:55 #

Du verwechselst hier flüssige Bewegung und maximale Wahrnehmung von Einzelbildern. Und die liegt beim menschlichen Auge um die die 60 Hz. In der Region von 25 Hz kann das menschliche Gehirn nicht mehr die Einzelbilder unterscheiden und nimmt diese als flüssige Darstellung war.

Woldeus 15 Kenner - 3171 - 12. Februar 2012 - 18:31 #

als laie würde ich behaupten, dass die auflösung durch die stäbchen und zäpfchen im auge begrenzt ist. wir sehen im übertragenen sinne auch mit einer "auflösung".
die größe hat auch nicht viel mit auflösung zu tun. auf eine hauswand kann man einen film mit einer 320er auflösung projezieren.ist dann gr0ß, die auflösung aber nicht.(von der quali nicht zu sprechen)

Sp00kyFox (unregistriert) 13. Februar 2012 - 14:13 #

ach bitte. die aussage wird mit der zeit auch net besser.
die leute müssen mal lernen, dass sich das menschliche auge nicht an tv-normen orientiert. nur weil solch ein standard festgelegt wurde, heißt das net, dass das menschliche auge über 25fps keinen unterschied mehr sieht. oder denkst du etwa, in ntsc-regionen hätten die leute dann entsprechend 23,97hz-augen?

im durchschnitt kann das menschliche auge bis zu 80Hz erkennen und unterscheiden. dies kann man auch leicht an sich selbst mit frequenz-tests überpreifen, ab welcher frequenz ein schwarz-weiß-wechsel nur noch als grau gesehen wird.

wieso filme mit 24fps flüssig wahrgenommen werden, hat vor allem mit der bewegungsunschärfe des belichtungsprozesses zu tun. ohne diese würde das wesentlich stockender wirken.
das kann man auch leicht an spielen sehen, wenn man die fps mal künstlich auf solch eine filmrate reduziert.

Ukewa 15 Kenner - 3689 - 13. Februar 2012 - 15:39 #

Auf den ersten Blick scheint es falsch, eine feste Auflösung als Maximum fürs Auge anzugeben. Das ist es aber nicht mehr, wenn man eine feste Größe mit einbezieht: Das menschliche Sichtfeld.
Bezogen ist die 8000x4000 also darauf, daß das Bild genau das gesamte Sichtfeld einnimmt. Dann kann man durchaus eine feste Auflösung angeben, ob das aber genau diese ist, weiß ich auch nicht..
Beispiel: Großes Bild (50Zoll z.B.), man muss "weit" weg, um es komplett zu sehen. Kleines Bild, man muss nahe ran, damit das gesamte Sichtfeld ausgefüllt ist. Bei ersterem ist die Dichte (dpi) geringer, aber dafür ist man weiter weg..usw.

Marco Büttinghausen 20 Gold-Gamer - 20481 - 27. Februar 2012 - 19:47 #

Um zu dieser Diskussion beizutragen: Schon alleine die Frage nach wieviel FPS man sehen kann, ist falsch, die beste Antwort zum Thema die ich kenne kommt von 100fps.com

http://www.100fps.com/how_many_frames_can_humans_see.htm

Nokrahs 16 Übertalent - 5996 - 11. Februar 2012 - 12:51 #

Irgenwann sind Spiele so realistisch, dass man draußen in der echten Welt einige Effekte vermisst.

LuNaTiCsOuL 17 Shapeshifter - 6555 - 11. Februar 2012 - 13:34 #

Das tue ich jetzt schon :)

Admiral Anger 27 Spiele-Experte - P - 83416 - 11. Februar 2012 - 14:39 #

Quicksave und Quickload z.B. ;)

Basti51 14 Komm-Experte - 1984 - 12. Februar 2012 - 11:02 #

Oh ja - das vermisse ich auch sehr^^

MachineryJoe 18 Doppel-Voter - 9259 - 12. Februar 2012 - 11:50 #

Das vermisse ich sogar in vielen Spielen.

Anonymous (unregistriert) 12. Februar 2012 - 15:31 #

...und Nude Mods!!!! :-)

Koffeinpumpe 15 Kenner - 3825 - 11. Februar 2012 - 13:33 #

"Dadurch wird sich nicht alles ändern, aber es wird sich Sache für Spieler viel angenehmer machen"

sich = die?

Sieht toll aus, keine Frage. Vor wenigen Jahren wäre so etwas in Spielen nur als Rendergrafik zu sehen gewesen.
Aber immer noch unendlich weit von realer Optik entfernt. Man sieht auf den ersten Blick, dass es sich um Computergrafik handelt. Die Farben zu knallig, die Effekte zu übertrieben - weniger ist manchmal mehr.

Andererseits: Wen interessiert die Grafik, die sieht seit Jahren mehr als gut genug aus. Ich wünschte, sie würden so viel Energie z.B. in die KI stecken...

Sp00kyFox (unregistriert) 13. Februar 2012 - 15:03 #

grafik ist eben etwas woran ohnehin gearbeitet wird und auf der theoretischen seite schon sehr viel vorhanden ist, was nur umgesetzt werden muss.

bei der ki hingegen ist sehr vieles noch aktuelles forschungsgebiet. entwickler-teams haben aber nicht die finanziellen und zeitlichen ressourcen an akademischer foruschung teilzunehmen. dort werden eben bewärte algorithmen und verfahren implementiert.. und da sind nun mal grenzen bei dem was man bisher machen kann.
und im grunde reichts ja auch bei den meisten spielen aus. sogar solche offenen rpgs wie skyrim und co schaffen es, die spielmechanik und das welt-design so anzupassen, dass die ki-schwächen zwar nicht unsichtbar werden, aber immerhin nicht allzu störend sind.

Koffeinpumpe 15 Kenner - 3825 - 13. Februar 2012 - 21:47 #

Naja, ich erwarte ja nicht gleich eine HAL 9000 KI, aber mehr als aktuelle Strategiespiele z.Z. bieten, sollte auch mit bestehendem Wissen machbar sein. ;)

Sp00kyFox (unregistriert) 13. Februar 2012 - 22:18 #

im grunde genommen gibts aber halt keine bibliotheken oder ähnliches worauf man zurückgreifen könnte. sie müssen für jeden neuen titel eben zur spielmechanik eine neue ki modellieren, testen usw. ist halt relativ schwieriger und langfristiger prozess... da geben sich dann viele teams zufrieden wenn sie in der zeit was einigermaßen vorzeigbares haben.
da wird sich net groß was ändern denke ich.

Koffeinpumpe 15 Kenner - 3825 - 13. Februar 2012 - 23:15 #

Denke ich auch nicht. Mit einer KI kann man eben keine krachenden Werbevideos und Screenshots veröffentlichen, oder Verpackungsrückseiten pflastern.

Bradbury 10 Kommunikator - 509 - 11. Februar 2012 - 14:14 #

Von 8000 x 4000 Bildpunkten zu sprechen ist irgendwie sehr unpräzise. Mal abgesehen davon, dass das Seitenverhältnis ungewöhnlich ist, ist es doch für das Auge viel entscheidender, wieviel Pixel über eine bestimmte Strecke dargestellt werden. Die Auflösung entspricht 32 Megapixeln, hochwertige Kamerasensoren beherrschen heute schon mehr (okay kein besonders guter Vergleich). Die 8000 x 4000 Auflösung auf einen 16:9 32 Zoll Monitor entspricht dann gerade mal ca. 270 ppi. (Pixel auf einer Strecke über 2,54 cm) Im Vergleich dazu bietet das iPhone Display heute schon 326 ppi. Gedruckt wird meist mit 2540dpi (wobei die Auflösung aufgrund völlig anderer Faktoren so hoch ausfällt)

Auch wenn unter gängigen Bedingungen und bei einem normalen Sehabstand wahrscheinlich kein wahrnehmbarer Unterschied im Vergleich zu einer höheren Auflösung festzustellen ist, glaube ich, dass man auch noch von weitaus höheren Auflösungen profitieren wird.

Deathproof 14 Komm-Experte - 2085 - 11. Februar 2012 - 15:28 #

UltraHD hat eine maximale Auflösung von 7680 × 4320 Pixel (16:9) nach heutigen angaben.
Von den Bildpunkten her ist es das gleiche.

Bradbury 10 Kommunikator - 509 - 11. Februar 2012 - 15:42 #

keine Ahnung worauf du hinaus willst, aber ich habe deine Auflösung mal spaßeshalber in einen Taschenrechner eingetippt und festgestellt, dass diese Auflösung die Realismusgrenze von Epic bereits um über 1 Mio. Pixel übertrifft.

Sp00kyFox (unregistriert) 13. Februar 2012 - 15:03 #

gedruckt wird im normalen anwendungsbereich keineswegs mit solch höher auflösung, höchstens im fotodruck. für normale schriftstücke werden eher werte zwischen 300 und 500 verwendet.

abgesehen davon ist die maßeinheit dpi bzw ppi ohnehin ungeeignet, für die bewertung von auflösungen unterschiedlicher geräte-kategoriern. denn ja nach anwendungsgebiet wird der betrachter sich näher oder weiter entfernt zum gerät befinden, womit die subjektive auflösung jeweils eine andere ist. daher ist es auch nicht verwunderlich, dass mobilgeräte höhere ppi-zahlen haben.

Ukewa 15 Kenner - 3689 - 13. Februar 2012 - 15:40 #

Copy&Paste von oben:
Auf den ersten Blick scheint es falsch, eine feste Auflösung als Maximum fürs Auge anzugeben. Das ist es aber nicht mehr, wenn man eine feste Größe mit einbezieht: Das menschliche Sichtfeld.
Bezogen ist die 8000x4000 also darauf, daß das Bild genau das gesamte Sichtfeld einnimmt. Dann kann man durchaus eine feste Auflösung angeben, ob das aber genau diese ist, weiß ich auch nicht..
Beispiel: Großes Bild (50Zoll z.B.), man muss "weit" weg, um es komplett zu sehen. Kleines Bild, man muss nahe ran, damit das gesamte Sichtfeld ausgefüllt ist. Bei ersterem ist die Dichte (dpi) geringer, aber dafür ist man weiter weg..usw.

Sorji62 (unregistriert) 11. Februar 2012 - 14:28 #

Am meisten beeindruckt war ich damals beim Umstieg von Mega Drive / Super NES auf Sega Saturn / Playstation (von 2D auf 3D). Sowas kommt so schnell nicht nochmal vor. Die Grafik der Demo ist wirklich beeindruckend, allerdings haut es mich nicht aus den Socken.

Ansonsten sag ich nur "Raytracing". Wenn es 100% genutzt werden kann und zwar in all seinen Facetten, dann wird der erste "richtige" Schritt zur virtuellen grafischen Realität getan sein. Momentan wird noch getrickst, auch wenn das richtig gut aussieht.

Mazrim_Taim 16 Übertalent - 4088 - 12. Februar 2012 - 11:31 #

Liegt heutzutage aber daran das die XBox360 und die PS3 bremsen.
Ich erinner mich an meine erste Voodoo1.
Auf einmal volle 20fps und gestochen scharf! Man war das irre.

CBR 21 AAA-Gamer - P - 26590 - 12. Februar 2012 - 22:27 #

Kantenglättung statt Pixelwolken!

Sp00kyFox (unregistriert) 13. Februar 2012 - 15:16 #

auch wenn man raytracing verwendet, wird die grafik nicht auf einmal realistisch. erstens ist raytracing nicht gleich raytracing. siehe zB doom, und da kann man keineswegs von realistischer grafik sprechen. auch raytracing kann man eben beliebig kompliziert machen und mit feineren physikalischen lichtmodellen ausstatten, wie zB mit subsurface scattering (siehe dazu den gg-artikel von neulich).

zweitens hängt die grafik immer noch von texturen, modellen, animationen ab, welche weiterhin von leuten modelliert und animiert werden müssen. sehen diese nicht realistisch aus, bringt das schönste lichtberechnungsmodell nichts.

bis man so viel rechenkraft hat, dass sich raytracing lohnt im vergleich zum bisherigen lichtmodell, wo man mit allen möglichen tricks auch schöne bilder mit besserer performance kriegt, wirds wohl noch ne ganze weile dauern. denn immer wenn mehr performance zur verfügung steht, wird diese genutzt um den detailgrad der bisherigen grafikmodelle hochzuschrauben und mit mehr effekten auszustatten. d.h. zu jedem zeitpunkt in der entwicklung sieht das raytracing-pandont mit selber performance immer schlechter aus.
daher muss es eben einen exorbitanten performance-spring geben, sodass dieses argument keine gültigkeit mehr hat. so etwas ist aber in der hardware-entwicklung nicht abzusehen.

Sorji62 (unregistriert) 13. Februar 2012 - 17:06 #

"bis man so viel rechenkraft hat, dass sich raytracing lohnt im vergleich zum bisherigen lichtmodell, wo man mit allen möglichen tricks auch schöne bilder mit besserer performance kriegt, wirds wohl noch ne ganze weile dauern."

Nichts anderes hab ich gemeint.=)

Ok, also "ne ganze Weile" ist in der Computerindustrie ein Zeitraum von sagen wir mal 10-20 Jahren? Vor 20 Jahren erschien "Virtua Racing", wenig später "Ridge Racer". Wie sieht es 2032 aus? Ich bin jetzt mal dreist und sage das sich dann Raytracing durchgesetzt haben wird, aufgrund seiner Qualität und seiner Flexibilität.

Ich schrieb "Raytracing in all seinen Facetten" und so meinte ich es auch =)
Das niemand in nächster Zeit den Stein der Weisen der Grafiktechnologie finden wird ist mir auch klar, aber der magische Faktor heisst in diesem Falle "Zeit". Und die vergeht rasend schnell im Grafikberreich.

Sp00kyFox (unregistriert) 13. Februar 2012 - 19:23 #

jo mag sein. ist halt für mich nur schwer zu sehen, ob man irgendwann einfach aus bequemlichkeit raytracing verwendet (ist an sich erst mal relativ simples verfahren aber rechenintensiv), oder man nicht weiter die rasterisierung-verfahren mit der zunehmenden performance einfach verbessert.
bei solch großen zeiträumen kann man aber ohnehin viel spekulieren.

Sorji62 (unregistriert) 13. Februar 2012 - 19:43 #

Du hast Recht, über solch große Zeiträume kann man nicht viel sagen, aber spekulieren macht grade in diesem Bereich Spaß. Immerhin dürfen wir das (hoffentlich) alles miterleben. :-)
Ich denke zuerst wählt man nach Performance und irgendwann (wenn Rechenkraft keine Rolle mehr spielt) wählt man die bequeme Metode und hat dann Zeit sich mit anderen wichtigen Dingen zu beschäftigen.

volcatius (unregistriert) 11. Februar 2012 - 15:30 #

Schön wäre es, wenn neben der Grafik auch die KI endlich mal größere Sprünge machen würde.

Sorji62 (unregistriert) 11. Februar 2012 - 18:09 #

Das wäre wirklich schön, aber da bisher keine KI existiert und man sich auch nicht sicher ist ob es sowas jemals geben wird, ist das ein extrem ambitionierter Wunsch :-)

Ja ok, man nennt das was die Computergegner so anstellen im allgemeinen KI, aber in Wirklichkeit hat es damit herzlich wenig zu tun.

Seit den Marines bei Half Life und deren Taktiken konnte mich keine "KI" mehr richtig vom Hocker hauen. Und es ist leider auch sehr, sehr schwer so etwas besser hinzubekommen.Also ist es nur logisch, das man sich eher auf die Grafik konzentriert, denn da weiß man ganz genau wohin der Weg gehen soll und vor allem WIE man ihn geht.Dazu braucht man in erster Linie nämlich nur simple Rechenpower. Das mit der KI ist da ein ganz anderes Thema und spielt mindesten zwei oder drei Ligen darüber.

bam 15 Kenner - 2757 - 12. Februar 2012 - 16:09 #

Das Problem ist sicher weniger, dass es zu schwer ist (schwer ist es natürlich), vielmehr ist besseres "KI-Verhalten" für Spiele in derzeitiger Form unnötig. Ob man nun einen Gegner abknallt der durch ein paar Skripte in Deckung geht und sich geschickt anstellt, oder man ihm komplizierteres "beibringt", am Ende ists für den Spieler unwichtig. Der Spieler soll ja gerade Gegnermassen abknallen.

Vor allem durch Online-Multiplayer-Komponenten, wird die Entwicklung dahingehend für Spiele eher immer uninteressanter. Da menschliche Gegner einfach fordernder bleiben.

"Perfektes" Verhalten von KI Gegnern ist schon jetzt implementierbar, nur machen die Spiele dadurch keinen Spaß. Was man eigentlich erreichen will ist menschliches Verhalten, aber das können Menschen eben besser.

Eigentlich macht richtig gutes KI-Verhalten nur für Simulationen sinn, ala ARMA2, nur fristen solche Spiele eben eher ein Nischendarsein.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 12. Februar 2012 - 17:02 #

Und ich beispielsweise finde menschliche Gegner dämlich und demotivierend - oft genug wird man entweder von Beleidigungen oder von Cheatern demotiviert. Und eine gute KI ziehe ich klassischen Scriptereignissen wie in der CoD-Reihe jederzeit vor. Ein Far Cry spiele ich wegen der in den meisten Fällen sehr guten KI immer noch gerne, ein CoD ist nach dem ersten Zocken öde. Der Unterschied ist einfach: Eine KI macht jede Szene zu einem einmaligen Erlebnis, hochgradig gescriptete Ereignisse sehen immer gleich aus.

Sorji62 (unregistriert) 13. Februar 2012 - 13:43 #

Eine richtige KI würde im Idealfall Spaß(!) daran haben herauszufinden wie gut du spielst und sich dementsprechend darauf einstellen. Aus ethischer Sicht ist das kein großes Problem denke ich, denn für die KI wäre es genauso ein Spiel wie für dich. Aber das ist ein sehr komplexes Thema und gehört vielleicht gar nicht hier her. Hochinteressant ist das Thema allemal.

KI in Spielen könnte den Spielspaß durchaus nach vorne bringen, denn der Nachteil des scriptens ist das statische Element, also die ewige Wiederholung. Eine echte KI könnte das wesentlich besser. Und wenn diese leistungsfähig genug ist, dann ist das simulieren von menschlichem Verhalten ein Klacks =)

Ein Beispiel: Stell dir vor du bist ein Marine, der die Überreste des Frachtraumers "Nostradamus" auf verbliebenes Alienmaterial untersuchen soll.

Nun stell dir ein Raumschiff voller Scripts vor und hunderter Aliens. Ein typisches Ballerspiel, auch wenn es sicher Spaß macht und gescriptede Ereignisse wirklich bombastisch rüberkommen können.

Aber das ist nicht das typische Alien-Flair, zumindest wenn man nach Ridley Scotts Version geht. Da ist das Alien nämlich bösartig schlau, ein gerissener Jäger.

Eine KI könnte sowas simulieren. Also quasi nur eine Handvoll Aliens, die dir das Leben zur Hölle machen und wo du echte (künsliche) Intelligenz aufblitzen siehst. Wie groß wäre die Genugtuung, wenn man dann eines dieser "schlauen" Aliens zur Strecke bringt. Mit dem richtigen Spieldesign wäre das eine tolle Sache denke ich.

Aber wie gesagt: Von einer echten KI sind wir nach aktueller Einschätzung so weit entfernt, das niemand sagen kann ob es jemals gelingen wird eine zu erschaffen. Und selbst wenn es gelingt könnte man es vielleich übersehen, denn Intelligenz und Selbstbewusstsein gehören nicht zwangsweise zusammen und die KI würde nicht auf sich aufmerksam machen. Und was Intelligenz wirklich ist, darüber ist man sich auch noch nicht so 100% sicher, zumindest über die verschiedenen Arten von Intelligenz.

Sp00kyFox (unregistriert) 13. Februar 2012 - 16:24 #

wer sagt denn, dass scripts statisch sind. die sind im gegenteil idR dynamisch und haben übliche if-then-strukturen, damit sie sich eben unterschiedlich verhalten.

Sorji62 (unregistriert) 13. Februar 2012 - 17:16 #

Ja, total dynamisch, vor allem im Vergleich zu einer echten KI. Ich glaub schon das du verstanden hast was ich damit meine, oder?
Es gibt statische Auslösepunkte/ Situationen und wenn ich das Spiel zum zweiten mal durchspiele, dann weiß ich beim zweiten mal wo etwas geschehen wird. Das macht die Sache nicht wirklich spannender, selbst wenn die gesprengte Säule mal nach rechts oder links fällt. Man stelle sich eine Engine vor, die selbst entscheiden kann wann und wo etwas passiert. Sogar WAS dann passiert.

Nur um es klar zu stellen: Ich spreche von einer echten KI.

Sp00kyFox (unregistriert) 13. Februar 2012 - 19:28 #

dass du vorhersehen kannst was passiert, ist eben nicht der fall bei einer gescripteten ki, da diese zwar immer dasselbe verhalten aufweist, aber dieses eben situationsbedingt ist.
und du wirst kaum beim zweiten mal exakt so spielen wie beim ersten mal.
von gescripteten ereignissen wie explosionen hab ich nicht gesprochen.

und sowas wie eine echte ki gibts nicht. ki ist nun mal die automatisierte, selbstständige lösung eines problemfeldes. ob dies durch scriptsteuerung, mechanik, neuronale netzwerke usw gelöst werden, ist für den begriff unerheblich.

Sorji62 (unregistriert) 13. Februar 2012 - 19:55 #

Du beschreibst eine "schwache KI", ich spreche die ganze Zeit von einer "starken KI" und ich muss zugeben, im hiesigen Kontext bist du damit näher dran. Von daher labern wir grade ein wenig aneinander vorbei ;-)

Geskriptete KI funktioniert in der Tat recht gut. Aber Fortschritte konnte ich in den letzten zehn Jahren nicht wirklich feststellen. Far Cry fällt mir da noch ein, allerdings gabs da auch jede Menge KD (Künstliche Dummheit)... wie oft sind die Gegner panisch an mir vorbeigerannt? Ich konnte es nicht zählen..

Sp00kyFox (unregistriert) 13. Februar 2012 - 20:25 #

man kann halt sehr viel zeit und analysen verbringen eine gut gescriptete ki zu entwerfen. prob ist da natürlich der zeitdruck der entwickler, die ihre ressourcen lieber in bereiche investieren wo sofort eine verbesserung zu sehen ist. am ehesten sieht man wirklich gute ki's dann noch in rundenstrategie-spielen. da ist das problemfeld aber auch wesentlich einfacher zu handeln.

Sp00kyFox (unregistriert) 13. Februar 2012 - 16:22 #

wegen dem ganzen chaos in cod mags dir vlt net auffallen, aber auch da haben die gegner ein ki-verhalten. das spieldesign ist aber so auf spektakuläres schießbuden-niveau ausgerichtet, dass die gegner eine zu kurze lebensspanne haben und ihrer masse zu groß sind, als dass man da als spieler groß was mitkriegen würde.

Sp00kyFox (unregistriert) 13. Februar 2012 - 16:19 #

KI heißt eben so, weil es keine intelligenz ist. und das was in software oder auch in spielen sieht, kann man schon so nennen. KI ist immer anwendungsorientiert und auf spezielle problemfelder zugeschnitten. grafik hingegen lässt sich verallgemeinern und auch in zukunft für andere projekte nutzen.
daher ist auch klar, wieso man im ki-bereich nicht solche fortschritte sieht. allerdings tun die meisten spiele trotzdem einen guten job mit ihrer skript-steuerung der gegner.

Sorji62 (unregistriert) 13. Februar 2012 - 17:28 #

Was meinst du? KI= Künstliche Intelligenz. Gibts noch nicht. Der Begriff wird oft zum besseren Verständnis gewählt, ist aber an sich in seiner Bedeutung festgelegt.
Klar machen die Spieleprogrammierer im Rahmen ihrer Möglichkeiten einen sehr guten Job, allerdings geht das mit Sicherheit noch deutlich besser.

P.S. Das mit der KI geht nicht vorran weil keiner so genau weiß WIE. Man hat quasi einfach den Hebel noch nicht gefunden =)

Sp00kyFox (unregistriert) 13. Februar 2012 - 19:33 #

siehe oben. natürlich gibts künstliche intelligenz und das seit über 50 jahren. ki ist eben nicht erst gegeben, wenn ein rechner mit dir diskutieren kann.

und nein.. man hat in der KI sehr viele methoden über die letzten jahrzehnte entwickelt, die sich für unterschiedlichste problemgebiete eignen. ist immer noch ein sehr aktuelles forschungsthema, welches sehr wohl vorankommt. von visionen eines allgemein intelligenten, sprechenden rechners hat man sich aber schon vor 30 jahren verabschiedet.

Sorji62 (unregistriert) 13. Februar 2012 - 20:07 #

Ich muss dir widersprechen, eine KI wie ich sie meine gibt es ganz sicher nicht, so wie du sie definierst aber schon. Und der Begriff wird im Grunde genommen falsch eingesetzt (auch wenn er anerkannt ist, sicher). Automatische Vorgänge haben eben nichts mit richtigem Denken zu tun.
Aber das ist Philosophie und das kann jeder für sich selbst definieren wie er mag. Da ich sehr gerne Science Fiction lese, hab ich meine Wahl schon getroffen.

Sp00kyFox (unregistriert) 13. Februar 2012 - 20:30 #

naja.. ich meine so wie du den begriff eigentlich verwendest, ist das falsch. "künstliche intelligenz" ist der name eines teilgebiets der informatik und da gehts eben um genannte dinge, also selbständiges lösen von instanzen eines spezfischen problemgebiets (zB wegfindung, fußball, kundenanalyse, schach usw..).

will nicht bestreiten, dass durch scifis und entsprechend populäre filme der begriff im allgemeinen oft anders verstanden wird. mit der akademischen sicht hat das aber nichts zu tun und schlussendlich müsste ja von dort dann diese "richtige" KI herkommen. dieses ziel hat man aber schon lange nicht mehr, seit man begriffen hat, dass rechenkraft alleine nicht die lösung ist.

Sorji62 (unregistriert) 16. Februar 2012 - 14:05 #

Nunja, das ist ein heiß diskutiertes Thema, aus akademischer Sicht mag der Begriff sicher definiert und eingegrenzt sein, aus allgemeiner, philosophischer und auch wissenschaftlicher Sicht ist man sich da nicht ganz einig. Wäre auch zu einfach.

Anonymous (unregistriert) 12. Februar 2012 - 11:09 #

Ich weiß gar nicht, ob ich wirklich eine "richtige" KI in einem Spiel als Gegner haben will.
Mir tun die ahnungslos in ihren Höhlen sitzenden Banditen in Skyrim ja schon oft genug leid, wenn sie plötzlich panisch durch die Gänge flitzen, weil ihr Nachbar grad mit einem Pfeil im Kopf in die Suppe knallte. Mir jetzt noch vorzustellen, dass jedem von denen eine Intelligenz verpasst würde, die sie vom Verhalten intelligenten Lebens um mich herum noch weniger unterscheidbar macht... brrr.
Irgendwann reichts auch einfach. Ich will nicht zum Mörder virtuellen Lebens werden ;)

Tr1nity 28 Party-Gamer - P - 110372 - 11. Februar 2012 - 15:48 #

Bin mal gespannt was bei der Vorstellung letztendlich rauskommt. Das Video ist ja auch schon wieder ne Ecke alt.

Anonymous (unregistriert) 11. Februar 2012 - 17:24 #

Um die Realität simulieren zu können müsste man die Realität erst einmal verstehen.
Da halte ich es für eine gewagte Vorhersage, dass nachdem Physiker seit Jahrhunderten (oder eigentlich seit Jahrtausenden) nach der Weltenformel gesucht haben nun Spieledesigner diese innerhalb weniger Jahre finden sollen.
(Mal abgesehen davon, dass man dafür einen Computer bräuchte, der so groß ist wie das Universum, was eine gewisse Problematik mit sich führt.)

Sp00kyFox (unregistriert) 13. Februar 2012 - 16:25 #

bei spielen gehts ja auch nicht um die simulation der realität, sondern nur eine darstellung derselbigen. dazu ist ein phykalisch korrektes modell überhaupt nicht notwendig.

PCEumel 13 Koop-Gamer - 1436 - 11. Februar 2012 - 22:29 #

Toll, dann kann man alsbald ja wieder innovative und spassige Konzepte erwarten, wenn man grafisch schon am Limit angekommen sein wird und dann Entwicklungszeit ins Spiel stecken kann. ^^

rAmbAzAmbA 17 Shapeshifter - 7391 - 11. Februar 2012 - 23:40 #

Bin jetzt kein Grafiker/Programmierer, aber ich denke mit steigendem Realismus, muss auch mehr Zeit damit verbracht werden. Vorher konnte man evtl bisschen "pfuschen" wie z.B. bei der Crysis 2.

PCEumel 13 Koop-Gamer - 1436 - 12. Februar 2012 - 0:13 #

Lass mir doch meine Illusion, menno... *schnief* xD

Reverend 13 Koop-Gamer - 1269 - 12. Februar 2012 - 10:55 #

Bin ich der einzige, der das Video mal so richtig gut findet ?
Das hätt gut und gerne ne halbe Stunde gehen können...

Kristantras (unregistriert) 12. Februar 2012 - 11:10 #

Ne, da bist Du nicht der Einzige. :-)
Das Video sieht schon chic aus. Ich hoffe, das uns die nächste Konsolengeneration auch wieder grafisch von den Socken haut.
Ich höre hier immer nur KI, es gibt ja durchaus Spiele mit einer brauchbaren KI, wenn ich nur an die Bots damals aus Quake 2/3 denke, die waren schon richtig gut.
Aber es gibt schon was die KI anbelangt einige Negativbeispiele in letzter Zeit, z.B. Uncharted 3.

. 21 AAA-Gamer - 28253 - 12. Februar 2012 - 11:15 #

Na wenn der Realismusgrad bald erreicht wird, dann hört zumindest der Grafikvergleichwahn auf und die Entwickler können sich innovativen Spielideen widmen.

Anonymous (unregistriert) 12. Februar 2012 - 22:23 #

Was wird dann eigentlich aus den Leuten die 24/7 nach besserer Grafik heulen? Die haben dann ja gar nix mehr zu tun. Die suchen sich dann wahrscheinlich alle sofort ein neues Hobby. :D

sw4pf1le 18 Doppel-Voter - 10811 - 12. Februar 2012 - 23:12 #

Bislang haben selbst die Kamerahersteller immer wieder was für ihre neuen Gerätegenerationen gefunden. ;)

bolle 17 Shapeshifter - 7789 - 12. Februar 2012 - 11:57 #

Viel wichtiger aus die Auflösung ist doch die Fähigkeit der Entwickler, das gut umzusetzen. Und da harperts find ich viel mehr, trotz der hohen Rechenleistung wirken neue Spiele optisch oft total grottig.

Z.B. Back in Action. Die Portraits haben Augen, Nase und Mund, aber Gesichter sind das nicht.

Lostboy 13 Koop-Gamer - 1528 - 12. Februar 2012 - 11:57 #

Sagt mal, gehts nur mir so, oder hat noch jemand bei dieser TECHDEMO gedacht:" WHAT THE FUCK"- wie geil ist das denn???" :)

Hammer, erinnerte mich anfangs an Blade Runner, dann an...
naja, ab dann hab ich nur noch mit offenem Mund dagesessen, vielleicht wird das ja ein Spiel? Wenn in letzter Zeit was Lust auf mehr gemacht hat, dann diese Möglichkeiten, die sich scheinbar in der nahen Zukunft mit solch einer Engine befinden...

TOP!!!

Feldgraf 11 Forenversteher - 584 - 12. Februar 2012 - 12:24 #

Seine Aussagen könnten schon hinkommen, aber die Tech.-Demo ist zwar ganz nett, jedoch nicht wirklich beeindruckend.

schwertmeister2000 17 Shapeshifter - - 7406 - 12. Februar 2012 - 13:37 #

tja und mit der technik dann ein skyrim remake oder eine portierung für die x720 und ich bin happy forever

bolle 17 Shapeshifter - 7789 - 13. Februar 2012 - 1:36 #

glaubst du jetzt... :)

Darth Spengler 18 Doppel-Voter - 9372 - 12. Februar 2012 - 18:29 #

Seh ich nach 2 Sekunden das, das nicht echt ist. Alleine seine Bewegungen...

Aber hübsch ist es auf jedenfall. Ich denke 10-20 Jahre wirds noch brauchen bis es wie die Realität aussieht.

Anonymous (unregistriert) 12. Februar 2012 - 20:53 #

Diese Tech Demo genau genommen "Samarithan" oder wie sich es schimpft, schaut ja recht gut aus, aber wie epic auch vor ca 6 monaten bekannt gegeben hatte, wurde das auch mit massiver rechenpower erkauft und daher wird, es das nicht mal ansatzweise in der nächsten konsolengeneration geben. (3x geforce 580gtx + restliche high end hardware sagt denke ich einiges aus, das wurde ja benötigt ums ruckelfrei zu präsentieren)

pepsodent 15 Kenner - P - 3876 - 13. Februar 2012 - 12:41 #

Ja, ja, bla, bla, immer diese Zukunftsvoraussagen...
Und ich sag einfach mal, dass niemals irgendein Rechner die Realität realistisch simulieren kann.
Standbilder können schonmal echt aussehen, aber sobald Bewegung ins Spiel kommt isses vorbei. Das wird man IMMER sehen.
Aber mit solchen Ansagen kann man ja kein Geld verdienen. Und keine Produkte bewerben.
Ach, warum les ich auch immer solche dummen News, denen man schon am Titel ansieht, dass es wieder blödes PR-Gewäsch ist....

Dennis Ziesecke 21 AAA-Gamer - 30866 - 13. Februar 2012 - 15:08 #

Du meinst in etwa so, wie 640 Kilobyte Hauptspeicher für immer reichen und niemals auf der Welt mehr als 40 Computer benötigt werden? ;) Mit endgültigen Aussagen wäre ich generell vorsichtig. Es hieß auch einmal, dass nie jemand ohne spürbare Verzögerung mit Menschen auf der anderen Seite der Welt kommunizieren wird, dass es unmöglich ist, schneller als 100 Stundenkilometer zu fahren und dass die Erde NIEMALS rund sein kann, weil dann ja unten alle runterfallen würden..

Sorji62 (unregistriert) 13. Februar 2012 - 15:49 #

Word! =)

sw4pf1le 18 Doppel-Voter - 10811 - 13. Februar 2012 - 16:29 #

Man muss natürlich immer bedenken, was das für eine Veranstaltung ist. Die Spieleindustrie zeichnet einen ihrer führenden Köpfe für sein Lebenswerk aus, ein Karriere voller Visionen. Was wird dann wohl von seinem dazugehörigen Vortrag erwartet? Na klar, eine Vision. Aber es ist ja auch die Aufgabe von Visionären, Diskussionen anzustoßen. Dabei ist es fast immer eigentlich egal, ob er Recht hat oder nicht. Es geht nur darum, dass einer den Weg weist.

Mitarbeit