Raytracing fremvist med Quake Wars

Intel har flere gange snakket om, at fremtidens grafik vil blive lavet via raytracing frem for den metode, der anvendes i dag, og de har i den forbindelse tidligere fremvist nogle eksempler.

Eksemplerne har været af Quake 3 og Quake 4 og har ikke været så overbevisende. Nu har Intel fremvist en demonstration af Enemy Territory: Quake Wars, der viser, hvad man kan med rå CPU-kraft.

Til demonstrationen anvendte Intel fire quad-kerne-processorer i deres Tigerton-serie, der alle arbejdede ved 2,93GHz. Spillet anvendte en opløsning på 720p og blev opdateret med en frekvens på mellem 14-29 billeder i sekundet.

Journalisten, der så testen, var meget imponeret og fik taget en række billeder, der kan ses ved at følge linket til kilden.

Gravatar

#1 loki 16. jun. 2008 15:49

Umm... ikke synderlig imponeret. Måske en ingame video havde været bedre.
www.peakoil.dk
Gravatar

#2 Bundy 16. jun. 2008 15:54

Mjah det er lidt svært at bedømme - Og hvis man skal bruge 4 quad cores til det, så er det nok biligere med et GFX stadigvæk?

Og når man ka få 16 core CPU'er, hvor vilde er GFX så ikke?
Linux is only free if your time has no value.
Gravatar

#3 luuuuu 16. jun. 2008 15:54

Det er da imponerende nok i sig selv, men på nuværende stadie er det langt fra nok til at konkurrere med en GPU. Intel har stadig meget arbejde foran sig.
Gravatar

#4 DanaKaZ 16. jun. 2008 15:56

Jeg synes selve reflections delen ser imponerende ud, men modellerne og texturesne ser mig lidt kedelige ud.
Gravatar

#5 izym 16. jun. 2008 15:58

Ret imponerende, men tror man skal se en video for virkelig, at opleve det.

#4 Models og textures har jo intet med raytracing at gøre, så vidt jeg ved.
One does not simply walk into newz.dk
Gravatar

#6 Simm 16. jun. 2008 16:05

Lidt skægt at man først nu er begyndt sådan for alvor at snakke raytracing igen.. Det var det helt store buzzword i de gode gamle demo-dage på Amigaen.. Der var de fleste scener dog prerendered, så det kan nok ikke helt sammenlignes.
Nu 95% klogere end koldskål
Gravatar

#7 DanaKaZ 16. jun. 2008 16:08

#5 I know, men hvis det er meningen at det her skal være fremtiden så er pæne reflektioner ikke nok. Der skal også være nok kraft i systemet til at vise modeller osv.
Gravatar

#8 farmerhe 16. jun. 2008 16:19

I forhold til hvad der ligger af screenshots GFX kort har lavet har de stadig meget at arbejde med.

Og så er 16 kerner ikke just hver mands eje idag kommer væsentligt billigere til et godt graffikkort end det.
Gravatar

#9 utdiscant 16. jun. 2008 16:19

Jeg har hørt fra diverse interne kilder på DTU har Nvidia har vist interesse i GPU'er dedikeret til Realtime-Raytracing, så mon ikke Nvidia kommer til at have en finger med i spillet her.
<a href="http://www.dyberemening.dk">www.dyberemening.dk</a>
Gravatar

#10 J4F 16. jun. 2008 16:23

Interresant at det kan lade sig gøre.
Men som #1 og #5 ville det være mere imponerende hvis vi fik en video.

Men en anden vigtig del af artiklen er nok at det faktisk blev kørt på en Linux maskine, det tyder på en god fremtid for gamere der er glade for Linux.

Så bliver det bare interessant at se om Microsoft laver raytracing i DX11 (hvis det kan lade sig gøre), og på den måde prøver at holde gamerne til Windows.
http://webbies.dk/
Gravatar

#11 Abech 16. jun. 2008 16:42

Det kunne være rart med noget sammenligning.

F.eks. rendere samme billede med et raytracing kort og et "normalt" gfx kort.
Gravatar

#12 J4F 16. jun. 2008 16:59

#11
Du må have misforstået noget.
For det første så blev der ikke brugt en grafikkort til at rendere grafikken, der blev brugt 4stk.quad-core cpu-er
For det andet så mere softwaren, end hardwaren der betyder noget i denne sammenhæng.
Men hvis du vil se hvordan der ser ud uden raytracing, så kig her:
http://images.google.com/images?q=Enemy+Territory:...
http://webbies.dk/
Gravatar

#13 Spand 16. jun. 2008 17:25

Spændende. At rendere grafik på ~16 cores må da alligevel love godt for fremtiden, da det ikke kan være lang tid til det er normalt med 16 eller flere cores. Det er i hvert fald fint for mig hvis man kan udføre flere ting effektivt på CPUen og så slippe for at købe ekstra dedikeret hardware. Specielt med pris/core udviklingen vi har set den senere tid.
Gravatar

#14 JonasThyssen 16. jun. 2008 17:31

Det ser da helt sikkert flot ud, men det er jo ikke flottere raytracing end man har set i prerenderede scener i mange år.

At de skal bruge 16 kerner til at rendere det i "realtime" (14-29 fps er ikke realtime efter min mening) også endda i så vertex fattigt miljø som Quakewars er synes jeg ikke det lover bestemt godt for fremtiden.

Raytracing er en god teknologi der kan give nogle rigtig flotte resultater, men til brug i spil er det desværre ikke rationelt.
Gravatar

#15 Dreadnought 16. jun. 2008 17:41

En meget interessant ting er følgende:
TGDaily skrev:
Intel’s Daniel Pohl showed how the engine now shoots three million rays in all directions, enabling collision detection based on rays alone.

Det er da en win-win situation, hvis man ser bort fra det performancehit der følger med raytracing.

Jeg opgraderer mit grafikkort en enkelt gang mere, og så har Intel nok kommet med noget brugbart.
La langue française fait tu parles comme un bébé.
Gravatar

#16 CasperDGS 16. jun. 2008 18:00

Enemy Territory: Quake Wars er da ikke et grafisk krævende. Mit 6600 kunne da køre det i høj.

[/gentagelse]
ASUS M2N-SLI DELUXE, Jetway 8800 GTS 512, AMD 5600 X2, 4GB Kingston RAM, 500 GB HD. Logitech Z-2300
Gravatar

#17 RMJdk 16. jun. 2008 18:12

Helt ærligt kort og kontant, det ligner jo lort :/
Gravatar

#18 Neo1 16. jun. 2008 18:24

#16:

Ja, med rasterization, nok ikke med raycasting vel? ^^

#17:

Hmm...Nej
This is a quantum car. I don't know where I am, but I'm going really really fast!
Gravatar

#19 J4F 16. jun. 2008 18:34

Jeg vil gerne lige give 3 links i denne sammenhæng. Bare en opsumering, og stof til eftertanke.
http://www.hothardware.com/News/NVIDIA_Acquires_Ra...
http://www.theinquirer.net/gb/inquirer/news/2008/0...
http://www.tgdaily.com/content/view/36915/135/

Jeg tror ikke det tager lang tid før Nvidia kører et spil med raytracing, men med 1920*1200 opløsning og 30 FPS.
http://webbies.dk/
Gravatar

#20 dan1el 16. jun. 2008 18:51

imponerende...de reflektioner er jo genereret på stedet....ikke en eller anden baked texture.

samme med glas og vand, flot...glæder mig tilat se det muligt at rendere raytracing hurtigere til animationer :)
Gravatar

#21 Fafler 16. jun. 2008 18:54

Det ser imponerende ud. Især spejlingerne i portelerne.Hvor let er det for udviklerne at portere spillene til at bruge raytracing? Kan det implementeres på et nivau, hvor programmørene i princippet kan være ligeglade og det hele håndteres af OpenGL/DirectX/...?
Ah nevermind, der var jo allerede en der havde skrevet det.
Gravatar

#22 stone 16. jun. 2008 19:22

#21 - i princippet skal et spil ikke portes for at bruge en raytracing engine. alle subsystemer som animation, fysik, ai osv vil virke. man vil nok lave nogle nye materialer/overflader som kan udnytte de nye effekter, samt nogle fake setups af taage, reflektioner og ligende som skal aendres.

det eneste der, simplistisk set, skal aendres, er selve renderen. altsaa det kode som tegner grafikken paa skaermen. i og med at hverken opengl eller dx- som lige praecis er renderer api'er som hardware accelererer rastarization- understoetter raytracing er de ikke gode valg. maaske dx11 vil begynde at understoette nogle raytrace funktioner.

/stone
Gravatar

#23 pekr 16. jun. 2008 19:25

Når man tager Raytracing til efterretning er det imponerende nok. Vi snakker tonsvis af udregninger, tracing af lys, reflektioner osv osv. Det er helt klart fremtiden. Men det koster altså MHz at udføre den slags beregninger.
Gravatar

#24 praktikant muffe AKA pewbe 16. jun. 2008 19:33

#23

eller Ghz..
Gravatar

#25 Brobak 16. jun. 2008 19:48

Yes Raytracing er imponerende og bliver brugt til en del grafisk, hvor tingene ikke lige skal køre realtime, men er godt nok langt endnu før vi har ydelse nok til at bruge det ordentligt.

Så spørgsmålet er nok nærmere om der er en der finder en anden metode at give et bedre billede ved lavere kraftforbrug.
Gravatar

#26 DR KOBALL 16. jun. 2008 19:50

Wow kan det køre quake wars med fire processorere..
Min mor kan kan køre quake wars,

Intel kom igen når i har noget at vise.
Medeicenter, Opensource til windows Ja
www.meedios.com
You name it they got it
Gravatar

#27 RMJdk 16. jun. 2008 19:51

#19 og nu er 30fps ikke fedt. Når det er langsomt, kan alså godt mærke om man kører 30 eller 60fps i et spil, så der er lang vej endnu.
Gravatar

#28 stone 16. jun. 2008 19:52

#25 #26 - eneste grund til at rastarization koerer saa godt som det goer, er pga dedikeret hardware, gpu'erne. naar foerst vi faar dedikeret raytracing hardware, eller indirekte at gpu'erne bliver stadig mere programmerbare, kan vi bruge dem som dedikeret hardware til raytracing, og saa gaar performance vaesenligt op.

det kan ikke bruges til noget paa en cpu i sin nuvaerende form, men man bliver noedt til at se bare en lille smule ud i fremtiden.

/stone
Gravatar

#29 jakobdam 16. jun. 2008 19:56

Jojo, raytracing i realtime.

Men:

1) 1280x720p-opløsning er hvad de har testet med. Det er en ret lav opløsning.
2) 16 kerner - det er en dyr sag at have stående, ikke bare i indkøb men også i strømforbrug.
3) 14-29 fps. Det skal næsten tredobles før det bliver brugbart i mine øjne. Bare i denne lave opløsning.

Men det er ikke desto mindre interessant at raytracing nu kan genereres i realtime. Jeg kan nemlig også huske mit første raytracede 3D-billede, der tog en nat + en skoledag at rendere. Det forestillede navnet på en pige, og så reflektionen af denne tekst. Wow. Det var afgjort alle 17 timer værd... O_o (i 320x240 pixels).


Hvad får vi så med raytracing?

- Reflektioner
- Refraktioner (dvs. forvrængning når lys bøjes gennem et materiale; eks. vand)
- Caustics (lyskast fra hårde reflektioner ned på andre flader)
- Global illumination (når lyspartikler kastes korrekt rundt)
- Color bleed (farvekast fra objekter)
- Soft shadows (skygger der korrekt bliver blødere desto længere væk fra udspringspunktet de kommer)


Ok, raytracing er altså et interessant element - det kan vi jo nok alle blive enige om.


Tilbage er så to spørgsmål:

1) Er det værd at gå performancemæssigt så meget tilbage ift. hvad vi kender nu, jvf. opløsning og framerate?

2) Kan grafikkortenes GPU'er ikke lege med her?


Til det første; ja det kan meget vel være det værd. Vi ønsker et så virkelighedstro 3D-billede som muligt, og her er raytracing uundgåeligt.

Til det andet; ja det kan de, men ikke lige nu. Ikke uden en ændring af arkitekturen bag GPU'erne - men jeg tror til gengæld faktisk ikke at det ER så meget der skal ændres.

Husk på at GPU'erne har brillieret ved at kunne udføre komplicerede realtimeeffekter for multitrack recording/playback (multiple duplex) i lydstudier; her er skrevet specifikke drivere, så man udnytter GPU'ens potentiale til at skabe lyden med - i stedet for lydkortest chipsæt og CPU'en.

GPU'er skal man ikke kimse af, og de består da også af mange gange flere transistorer end CPU'er (sidst jeg kiggede var gængse highend-GPU'er oppe på 3 gange så mange transistorer som highend-CPU'er, det var dog i single-kerne dagene...).

Desuden skal CPU'en jo stadigvæk beregne physics og andre ting - men ok, givet vi har uendeligt antal kerner at bruge af, så kan den jo også fint gøre det, og give GPU'erne grundigt bagjul.

Men åh, så kan vi jo også bare skalere GPU'erne op. Ja, og så ser vi atter at grafikkort igen er bedst til det deres navn antyder; grafik.
Nyheder indenfor IT og teknologi: www.techstart.dk
Gravatar

#30 doctorx 16. jun. 2008 20:00

#18 Jo det ligner lort sammenlignet med helt almindelige screenshots fra QW. Se specielt det andet billede i bunden af artiklen (nærbillede af et fly) og sammenlig med dem, der refereres til i #12. Læg mærke til, hvordan bump mapping, HDR mm. er slået fra i deres raytracing. Det er grunden.

#29 fedt indlæg. IMHO skal man op over 100 fps i gennemsnit, før det er fedt at game på (specielt i Quake style spil).

Har Intel selv released nogen screenshots fra QW? Kunne være interessant at se nogen, som ikke er affotograferede.
Gravatar

#31 jakobdam 16. jun. 2008 20:50

#30 >

Netop - vi skal op i framerate før det bliver praktisk anvendeligt. Det som vi ser nu, er jo et (ikke helt uinteressant) proof-of-concept. Vil jeg da ihvertfald kalde det.

Om vi lige skal op i 100fps i snit - jeg kan godt slå ihjeld ved 50-60fps, også når vi snakker online gaming. :)

Nope, Intel har endnu desværre ikke nogle QW-billeder liggende... kunne være sjovt lige at se.

Iøvrigt - for eksempel på color bleed:
http://www.jakobdam.dk/show/bitmaps/subs/3dorg/10....

I know, eksemplet sucks. Det er lavet i 3D Studio MAX 4 med Brazil GI-render, for en del år tilbage... jeg havde en AMD Athlon 1800+ med 512 MB RAM. Det var HEDE sager, og dette bette billede tog vist omkring et kvarter at rendere! Detaljegrad er endda nedsat, hvilket kan ses på de splotchy skygger og manglende AA-filtrering.

Men bemærk hvordan de farvede vægge bløder deres farve over på den neutrale bagvæg.


Et eksempel på caustics som jeg lige fandt på google:
http://www.glossar.de/glossar/images/caustics2.jpg

Bemærk hvordan lyset brydes gennem glasset, koncentreres og farves.
Nyheder indenfor IT og teknologi: www.techstart.dk
Gravatar

#32 machinae 16. jun. 2008 20:50

Tror der er en del her der mangler lidt forståelse for hvad raytracing kan få af impact på realtime 3d grafik. Det der er vist i dag er TESTS af teknikken og det er sat sammen af kodere der har lånt nogle grafiske assests. Bare det at det kan lade sig gøre at køre i realtime er pænt imponerende. Bare vent til de laver en rigtig demo med nogle grafiske assets der udnytter teknikken ordentligt.

Udover det rent lys/materialmæssige så er der også store muligheder i meget præcis kollisionsdetektion som i dag er en dårlig joke når det kommer til realtime brug.
Gravatar

#33 Törleif Val Viking 16. jun. 2008 21:13

Samt at raytraycing er relativt nemt at implentere.

Giver folk ret i at det skal op i level, tænk på hvor kort tid der gik fra singlecore til quadcore. Tror fremtiden på computermarkedet er nærmere end vi tror.

Om det er Cpu over GPU eller en hybrid, endda omvendt er jeg ligeglad med, bare vi får et mindre strømforbrug og en teknik der virker.
--
( ) Man skal ikke smadre trapper
ö Hvis man selv bor i et fyrtårn
Gravatar

#34 spacefractal 16. jun. 2008 21:54

Framerate mæssig er ikke imponerende og det går lang tid for at prisen kommer så langt ned, at det bliver almindeligt.

Jeg huskede iøvrigt at Sony ville have at IBM's Cell processoren også skulle gå til grafikdelen, men der kom en dedicede GPU istedet for i PS3'eren....

Så en CPU kan endnu ikke klare grafikken alene, som også har mange andre opgaver end lige grafikken i et spil.

Så grafikkort dør ikke ligefrem forløbene. Tværtimod, de bliver stærkere til den tid også.
Gravatar

#35 Naed 16. jun. 2008 22:53

For crying out loud, er der dog ingen som har tænkt over hvad intel's planer med larrabee er ?

det er multi - multicore.

deres mål er jo at lave en "simpel" gpu/cpu som kan klare disse beregninger ved et jævnt godt tempo.

når de har 1, så hiver de bare X antal af dem sammen i en die, og voila , vi har larrabee.
Gravatar

#36 Taxwars 17. jun. 2008 01:30

I siger der ikke er en video? Jeg gider ikke engang læse artiklen så *g*
Luk DR - de snylter på skatteyderne
Gravatar

#37 el_senator 17. jun. 2008 08:46

Jeg kunne godt tænke mig at adressere kommentarer som "Det ser lidt fladt og kedeligt ud" og "Der skal mere til end pæne refleksioner" osv.

Mit spørgsmål til jer er, hvorfor pointere det åbenlyse? Alle kan se på de screenshots at denne meget tidlige testversion ikke er lige så pæn som raster grafik. Det i skal udlede af denne demonstration er at det er muligt. Hvis i ikke kender til raytracing kontra raster grafik, så kan jeg godt forstå i har svært ved at se fordelen, men hvis jeg påpeger at alle moderne 3D animerede film er lavet med raytracing teknologi, så vil i formentlig kunne se at der er et enormt potentiale i realtime raytracing.

Problemet er at raytracing kræver kollosalt meget regnekraft, da den, som jeg har nævnt før i en anden post, tracer/emulerer hver enkelt lysstråle/"foton" i et billede. I princippet skal der ikke andet til end definitionen af lys, plus afbøjning og modtagelse i materialerne og så har man en hyperrealistisk visualisering af en 3D scene.

Det er dog ikke helt så let, da det vil kræve emulering af alle materialer også og det kan vi ikke i dag. Derfor bruger man stadigvæk teksturer og det er det der får QW demoen til at se flad ud lige nu. Det eneste demoen tilsyneladende gør er at oplyse teksturerne. For at få det til at virke realistisk skal der også bumpmapping + andet til.

Aaaaaaaaaaaanyways, jeg synes det er møgfedt at Intel er begyndt at kigge på realtime raytracing. Jeg tror personligt at dette kan være den næste store revolution for os gamere på PC markedet. Og at det kører cross-platform er jo fuldstændig absurd fedt! Altså, at kunne game på Linux og Mac udover Windows, det kan kun være sundt.
muldjord.com - sepulchrum.net <-- det er ik' for børn
Gravatar

#38 Izaaq 17. jun. 2008 11:28

Det er da klart fedt, at man udvikler bedre metoder, til at få tingene til at se mere ægte ud. Men personligt synes jeg, at objekternes bevægelsesmønstre er den største synder, når man oplever, at tingene ser uægte ud.

Tag nu f.eks. Disney tegnefilm. Her er figurerne klart tegnet (og det ser jo HELT uægte ud), men fordi man har lagt utroligt meget arbejde i at tingene, og karaktererne med deres mundbevægelser og ansigtsudtryk er så tæt på virkeligheden som muligt, så glemmer man, at det er en tegnefilm og ser karaktererne som levende figurer.

Man kan gøre grafikken nok så god. Men hvis det betyder, at folk bevæger sig som terminatorer og i 20 fps, så kan det være ligemeget imho.

Det mest "ægte" spil jeg har, er gode gamle Motoracer. Det kører på min moderne maskine med omkring 200 fps, og tingene bevæger sig som man forventer, at motorcykler bevæger sig. Man får virkelig en oplevelse af hastighed selvom grafikken er noget gammeldags pixeleret.
Gravatar

#39 stone 17. jun. 2008 13:05

#38 - der er skrevet lange boeger om lige praecis det emne.

problemet er, at jo mere vi naermer os realisme, jo mere ligger vi som mennesker maerke til de fejl og mangler der er. vi har hele livet laert at kende virkeligheden og menneskes traek, saa lige saa snart vi ser noget der er realistisk, ser vi ogsaa hvor det fejler.

hvis det derimod er lidt ude af propertioner, eller har et cartoon traek, saa accepterer vi med det samme at det ikke er aegte, hvormed det virker rent visuelt bedre for os- ogsaa selvom animationerne er de samme som paa den realistiske model.

det er en kaempe hurdle i baade spil og den animerede film industri, at tage det spring og goere det realistisk nok at vi accepterer dem.

/stone
Gravatar

#40 graynote 17. jun. 2008 18:21

#37 el_senator:

At det ikke ser pænt ud ER faktisk relavant.

Lad mig forklare, hvorfor:
Intel viser os et proof of concept; at det KAN gøres i realtime.
Det er vi enige om, ikke?

Se, vi ved alle at raytraycing er flot, men vi ved også (eller mener at vide), at det er så ressourcekrævende, at det ikke umiddelbart fungerer til spil før engang i fremtiden. Så er det at Intel siger "se, se, fremtiden er nær!"

Og her kommer det: Vi spørger så - er den nu også det, når det I viser, slet ikke er det, som raytracing skal give os; superflotte spil?

Tager vi det aspekt fra, så viser intel simpelthen bare, at man kan raytrace med deres cpu'er.

Hvis de skal vise, hvor langt vi (de) er nået, må de vise et spil superflot - med den framrate de nu kan levere.


Derfor, senator, er de kommentarer, du langer ud efter, ganske relavante.


graynote
Gravatar

#41 stone 17. jun. 2008 19:03

#40 - raytracing giver jo ikke paa magisk vis paenere spil. det er op til spiludviklerne at lave noget der er paent.

det er saadan set irrelevant for dig som spiller om det er rastarization eller raytracing, bare det ser godt ud. men som udvikler er det interessant hvor langt teknologien er kommet, da det kan aabne op for nogle muligheder mht. engine udvikling- og i den sammenhaeng har #37 ret. det er fuldstaendig ligegyldigt om det er paent, for det skal ikke saleges til spillere. det der er vigtigt, er at teknologien kan udvikles og bruges.

/stone
Gravatar

#42 graynote 17. jun. 2008 21:14

#41 stone

Det er jo netop det; det skal jo vise, hvor langt vi er nået - men det gør det ikke, så længe det ikke er repræsentativt, og det er det først, når man ikke tænker "det var da en lav opløsning" eller "hvorfor er det ikke pænere?".

Som DanaKaZ så rigtigt siger i indlæg 7, så er pæne reflektioner ikke nok. Der skal også være kraft nok i systemet til at vise modeller osv.


Men jeg er helt enig med dig i, at det for slutbrugeren er fuldstændigt ligegyldigt, hvilken teknologi, der frembringer, det han eller hun ser. (hvis vi antager, at indkøbspris, strømforbrug etc er identisk for alle muligheder).
Gravatar

#43 jakobdam 18. jun. 2008 09:18

#40 >

Jeg synes ikke dit argument holder helt.

Hvad skaber et flot 3D-billede?

Figurer og sceneri sammensat af mange polygoner?
Flottere og højere opløste teksturer?
Bump maps eller endda specular maps?
Flottere lyslægning på sceneriet?
Effekter såsom partikeleffekter, reflektioner osv.?

Det samlede 3D-billeder jo en ækvivalent af alt dette.


Det som raytracing giver, er indiskutabelt flottere lys/skygger, reflektioner og diverse effekter du næsten ikke kan opnå på anden vis, eller kun gennem vanskeligt "snyd" der næsten men ikke helt ligner den ægte vare, og som du alligevel skal bruge visse mængder regnekraft på at udføre.

At folk så vælger at glo på teksturernes opløsning og antal polygoner der sjovt nok ikke har ændret sig, fordi Intel ikke lige havde lyst til at sidde og lave hele spillet forfra fra bunden, er jo ikke relevant i denne sammenhæng.


Men jeg tror så ikke helt på at en generisk processor vil kunne outperforme en dedikeret. Det er aldrig set før, og det tror jeg heller ikke vi kommer til.

Fint at Intel vil skabe en generisk processor der så skal kunne varetage grafik godt også - men når NVidia og AMD laver deres GPU'er, så dedikerer de dem til de formål de skal bruges til. En raytracing-dedikeret processor vil kunne opnå langt højere ydelse, og endda med mindre effektforbrug.
Nyheder indenfor IT og teknologi: www.techstart.dk
Gravatar

#44 graynote 18. jun. 2008 12:17

#43 jakobdam

"Det samlede 3D-billeder jo en ækvivalent af alt dette."

Netop - det er min pointe; husk på, at Intel vil have os til at droppe det dedikerede grafikkort til fordel for rå regnekraft i deres CPU'er.

Hvis nu Intel sagde "prøv at hør, raytracing skal gøres med en Intel CPU (ehm..eller 4), så kan I klare resten med jeres foretrukne GPU", så havde det været fint.

Men når nu deres pointe er, at en GPU skal være unødvendig, og at de samtidig vil vise os, hvor tæt de er på målet anskuet i FPS, så svarer det lidt til et driver tweak rettet mod et syntetisk benchmark at nedtone vigtigheden af helheden.

Det svarer (også) lidt (mere) til, at man har en målsætning om at få en lastbil med hænger til at køre 100 meter på 10 sekunder og så demonstrre, at den nu kan køre 100 meter på 30 sekunder uden hænger. Jovist, det er et skridt på vejen, men det gør det svært at bedømme, hvor tæt på målsætningen, de i virkeligheden er.

Kan du se, hvad jeg mener? Det er lidt illusorisk at lave om på parametrene i denne sammenhæng.


graynote
Gravatar

#45 Naed 19. jun. 2008 22:19

Graynote / jeg tror du har misforstået Intel's mål, de vil ikke lave en cpu som kan erstatte en GPU, de vil lave larrabee og de vil have raytracing til at være den foretrukne renderpath, da deres "angrebs" vinkel med larrabee er mest effektiv hvis det givne arbejde der skal udføres er meget "tråd" bart :)

/Naed

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login