PDA

Visualizza versione completa : GPU usate come CPU



follettomalefico
29-01-2004, 16.07.27
Era una domanda che mi ero posto: "Ma se sti mostri grafici li usiamo per calcoli normali?"

http://neoseeker.com/news/story/3027/

Yeah :D

Sballoso :D


Indeed, a PowerPoint presentation on the BrookGPU site reveals how an Nvidia GeForce FX 5900 Ultra GPU can be (theoretically) capable of computing at the equivalent level of a 10GHz Intel Pentium 4 CPU. That's if the GPU itself is utilized effeciently enough for the task of course, but at least it's food for thought.

ivanisevic
29-01-2004, 16.33.41
Il gpu di una fx5900ultra corrisponderebbe a un penitum 4 10 gb?????
:p :p :p

zetino74
29-01-2004, 16.39.22
l'avevo gia letto da qlc parte... gia sarebbe 'na bella cos'

Hex
29-01-2004, 17.28.23
Questo perchè le nuove GPU lavorano in 256bit mode, mentre le cpu ancora a 32 bit :look: ... quindi a pari frequenza sarebbero 8 volte piu veloci, in teoria...

Luke_74
29-01-2004, 17.52.18
Originally posted by follettomalefico
Era una domanda che mi ero posto: "Ma se sti mostri grafici li usiamo per calcoli normali?"

http://neoseeker.com/news/story/3027/

Yeah :D

Sballoso :D

Tieni conto che i processori grafici sono dedicati appunto alla grafica, a svolgere quei calcoli (in virgola mobile, matrici e compagnia bella) che ti permettono di vedere la grafica 3d come la vedi.
I processori dei PC proprio perche devo soddisfare diverse necessità non possono essere così ottimizzati.
E' un po come pensare che una motrice di un tir che fa 500 cavalli possa correre di più di un'audi (che di sicuro non fa tutti quei cavalli)

AmeR
29-01-2004, 22.47.43
Bella 'sta cosa. A quando un Seti@home per la gpu? :D

Hex
29-01-2004, 22.55.15
Originally posted by AmeR
Bella 'sta cosa. A quando un Seti@home per la gpu? :D

Amer tu fai seti@home?

follettomalefico
30-01-2004, 13.43.16
Luke, scusami, ma hai letto quel che vi è scritto?


Si parla appunto di un compilatore speciale e di un set di istruzioni in modo da fare girare qualunque programma usando il pipeline delle GPU. :)

AmeR
30-01-2004, 14.21.31
Originally posted by Hex
Amer tu fai seti@home?
Facevo, poi mi sono rotto le balle.

VM o X
30-01-2004, 16.17.53
Originally posted by Luke_74
E' un po come pensare che una motrice di un tir che fa 500 cavalli possa correre di più di un'audi (che di sicuro non fa tutti quei cavalli)

May vista una (Chrysler) Dodge Viper? :asd:

Hex
30-01-2004, 16.59.43
Originally posted by AmeR
Facevo, poi mi sono rotto le balle.

Io lo faccio e sono a 88 unità completate :D

Beta1
30-01-2004, 17.06.31
Avevo letto questa notizia un po' di tempo fà, è ancora una sperimentazione però sarebbe formidabile!, pensiamo anche alla conversione di un filmato.
Se non sbaglio lessi anche che la potenza di una GFFX 5900 è pari a 29Gflops come un teorico P4 a 10Ghz.

A me cmq basterebbe che la GPU gestisse tutto il calcolo delle scene 3d nei videogames praticamente la cpu pensa ad altro e la GPU pensa al gioco, così da rendere una CPU molto potente superflua.

ivanisevic
30-01-2004, 17.20.58
cos'è seti@home?

Luke_74
30-01-2004, 17.51.32
Originally posted by VM o X
May vista una (Chrysler) Dodge Viper? :asd:

Si e ci riesci a tirare il rimorchio di un tir? ;)

VM o X
30-01-2004, 18.25.52
Originally posted by Luke_74
Si e ci riesci a tirare il rimorchio di un tir? ;)

Hai idea della quantità di coppia che ha una Viper? Il motore è direttamente derivato da quello di una motrice! Se no (probabilmente) non era 8000 di cilindrata per soli 350cv circa e tutto incentrato su una coppia enorme (per lo meno nelle prime versioni)! ;)

Secondo me, se avesse il gancio ed una solida struttura nella scocca per sopportare il peso tirato, il motore ce la farebbe di sicuro a tirarlo il rimorchio! ;)

Beta1
30-01-2004, 20.36.38
[OT] sarà ma con quelle macchine non importa se riescono a tirare un rimorchio, l'importante è la velocità.

Personalmente apprezzo molto la ferrari da F1 per quanto riguarda la loro accellerazione da 0-100Km.
Viaggiare a 300Km/h deve essere emozionante!

VM o X
31-01-2004, 01.19.48
Originally posted by Beta1
[OT] sarà ma con quelle macchine non importa se riescono a tirare un rimorchio, l'importante è la velocità.


[OT] Per le vetture europee, ma non per quelle americane!

In America la velocità massima conta poco(issimo... troppo severi i limiti di velocità) e tanto meno se ne fregano della guidabilità (se viaggiano son spesso strade dritte)... loro ci tengono molto all'accellerazione immediata, quindi: tanta coppia, come i TIR. ;)

Le macchine di F1 sono molto delicate, e comunque son limitate (in "un certo senso") dai regolamenti FIA. Vi assicuro che lo stesso risultato (o uno analogo) si può ottenere su strada con vari accrocchi e trucchetti! ;)
Forse di vetture prodotte solo (quando sarà) la Bugatti Veyron farà prestazioni del genere (seppur con mezzi totalmente differenti), senza contare che (seppur meno conosciute) ci sono le vetture da pista che posson circolare anche su strada!
Ma per tutte le altre basta andare un tantinello fuori legge (in Italia, in Giappone no, per esempio) e il super bolidone (da 2Km al litro) esce fuori! ;)

Vabbeh... scusate il lungo post OT... ma se entrano in scena i motori non mi fermo più... :asd:

PS: Che vi piaccio o no, il motore della Viper è pari pari (o quasi) quello della motrice di un TIR! E ci han fatto pure una moto (che non ha mai fatto neanche un metro)! ;)

TrustNoOne
31-01-2004, 04.09.21
wow foll interessante :sagace:

Vorrei vedere come sono 'ste "brook extensions" :notooth:

AmeR
31-01-2004, 11.16.16
Originally posted by Hex
Io lo faccio e sono a 88 unità completate :D
Principiante :D

ivanisevic
31-01-2004, 11.29.56
Richiedo....cos'è il seti@home

AmeR
31-01-2004, 11.43.00
Originally posted by ivanisevic
Richiedo....cos'è il seti@home
Rispondo... cos'è google?

http://setiathome.ssl.berkeley.edu/

Most of the SETI programs in existence today, including those at UC Berkeley build large computers that analyze that data from the telescope in real time. None of these computers look very deeply at the data for weak signals nor do they look for a large class of signal types (which we'll discuss further on...) The reason for this is because they are limited by the amount of computer power available for data analysis. To tease out the weakest signals, a great amount of computer power is necessary. It would take a monstrous supercomputer to get the job done. SETI programs could never afford to build or buy that computing power. There is a trade-off that they can make. Rather than a huge computer to do the job, they could use a smaller computer but just take longer to do it. But then there would be lots of data piling up. What if they used LOTS of small computers, all working simultaneously on different parts of the analysis? Where can the SETI team possibly find thousands of computers they'd need to analyze the data continuously streaming from Arecibo?
The UC Berkeley SETI team has discovered that there are already thousands of computers that might be available for use. Most of these computers sit around most of the time with toasters flying across their screens accomplishing absolutely nothing and wasting electricity to boot. This is where SETI@home (and you!) come into the picture. The SETI@home project hopes to convince you to allow us to borrow your computer when you aren't using it and to help us "…search out new life and new civilizations." We'll do this with a screen saver that can go get a chunk of data from us over the internet, analyze that data, and then report the results back to us. When you need your computer back, our screen saver instantly gets out of the way and only continues it's analysis when you are finished with your work.

It's an interesting and difficult task. There's so much data to analyze that it seems impossible! Fortunately, the data analysis task can be easily broken up into little pieces that can all be worked on separately and in parallel. None of the pieces depends on the other pieces. Also, there is only a finite amount of sky that can be seen from Arecibo. In the next two years the entire sky as seen from the telescope will be scanned three times. We feel that this will be enough for this project. By the time we've looked at the sky three times, there will be new telescopes, new experiments, and new approaches to SETI. We hope that you will be able to participate in them too!

Hex
31-01-2004, 14.02.16
Originally posted by AmeR
Rispondo... cos'è google?

http://setiathome.ssl.berkeley.edu/

Cut!
[/I]

Ivan è siciliano :asd:
E' un programma che sfrutta i clock idle del tuo processore per esaminare delle onde radio e vedere se ci sono tracce di vita nell'universo...

Hex
31-01-2004, 14.18.47
Originally posted by AmeR
Principiante :D

Tu quante ne hai fatte???

follettomalefico
31-01-2004, 14.35.01
Originally posted by Beta1
A me cmq basterebbe che la GPU gestisse tutto il calcolo delle scene 3d nei videogames praticamente la cpu pensa ad altro e la GPU pensa al gioco, così da rendere una CPU molto potente superflua. Guarda che è esattamente quello che avviene :D

Gen.Web
31-01-2004, 14.40.05
Originally posted by follettomalefico
Guarda che è esattamente quello che avviene :D



non mi risulta :D prova a giocare ad un qualsiasi gioco con un 1000 mhz...

Hex
31-01-2004, 16.17.02
Originally posted by Gen.Web
non mi risulta :D prova a giocare ad un qualsiasi gioco con un 1000 mhz...

Ovvio che a occuèparsi di alcune cose, come l'intelligenza artificiale ecc., è la cpu.... no?

AmeR
31-01-2004, 16.20.11
Originally posted by Hex
Tu quante ne hai fatte???
Mi sembra 240, ora controllo.
Le primissime le ho fatte col Thunderbird 1ghz, ci mettevo anni per completarle. Poi col client testuale e l' avvento de nuovi processori ne sparavo 2 al giorno e ho perso tutto il gusto della sofferenza :D
:
Hai un PM.

Gen.Web
31-01-2004, 16.29.38
Originally posted by Hex
Ovvio che a occuèparsi di alcune cose, come l'intelligenza artificiale ecc., è la cpu.... no?


infatti, l'intelligenza artificiale è calcolata dalla cpu

Hex
31-01-2004, 17.41.22
Originally posted by Gen.Web
infatti, l'intelligenza artificiale è calcolata dalla cpu

Quindi la cpu servirà sempre a qualkosa nei giochi 3D ;)
La cosa strana è che nel 3DMark non serve la cpu... visto che è sempre la stessa cosa.... no? el 2003 è così ma nel 2001 no... perchè?

@Amer: risposto al pm

follettomalefico
01-02-2004, 13.01.52
Originally posted by Gen.Web
non mi risulta :D prova a giocare ad un qualsiasi gioco con un 1000 mhz... Lui ha detto "basterebbe che la GPU gestisse tutto il calcolo delle scene 3d"... ovvero esattamente quello che fa la GPU.

Gen.Web
01-02-2004, 13.34.11
Originally posted by follettomalefico
Lui ha detto "basterebbe che la GPU gestisse tutto il calcolo delle scene 3d"... ovvero esattamente quello che fa la GPU.


leggi il resto della frase :p

Beta1
01-02-2004, 14.06.43
Anche il triangle setup è gestito dalla SVGA???

Sono rimasto indietro! :azz:
Ero convinto che questo lo facesse la CPU!!

ma da quando è gestito dalla SVGA ?? dalla Geforce 256??

Mi correggo mi piacerebbe che la SVGA gestisse tutti i calcoli inerenti ai videogiochi compresi quelli dell'IA

Gen.Web
01-02-2004, 14.41.42
Originally posted by Beta1
Anche il triangle setup è gestito dalla SVGA???

Sono rimasto indietro! :azz:
Ero convinto che questo lo facesse la CPU!!

ma da quando è gestito dalla SVGA ?? dalla Geforce 256??

Mi correggo mi piacerebbe che la SVGA gestisse tutti i calcoli inerenti ai videogiochi compresi quelli dell'IA


molte cose vengono fatte dalla cpu. Mi pare di aver letto che ut2k4 richiederò un processore potente per l'elaborazione delle ombre... se hwupgrade funzionasse potrei copiarlo

follettomalefico
01-02-2004, 16.21.55
Originally posted by Gen.Web
leggi il resto della frase :p Letto. E non c'è nulla di differente. La CPU si dedica ad altro (ovvero non all'immagine 3D ma al calcolo dell'intelligenza, della fisica e del resto).

Dov'è il problema? :)



Tecnicamente, tutto quello che va a video è gestito da una scheda 3D da quando sono usciti gli acceleratori 3D, segnando un punto distintivo con la GeForce1.

Se però:
1. ci sono effetti che la scheda video non gestisce
2. la scheda video non è abbastanza potente
Allora subentra la CPU.


Ma l'idea di una GPU (since GeForce1 appunto), è proprio questa: gestire il 100% del rendering mentre la CPU fa altro.



UT2k4 avrà bisogno di una CPU potente per le ombre? Neppure troppo strano: UT non è mai stato un motore ceh tendesse a scaricare la CPU... tant'è vero che inizialmente (e con le patch) UT girava nativamente senza hardware 3D :)




La logica di fondo cmq è questa: una GPU è fatta per tentare di togliere TUTTO il calcolo 3D dalla CPU. Poi lo sviluppo tecnologico è talmente veloce che questo non è possibile, ma l'idea di fondo è questa. :)

Gen.Web
01-02-2004, 17.14.07
Originally posted by follettomalefico
Letto. E non c'è nulla di differente. La CPU si dedica ad altro (ovvero non all'immagine 3D ma al calcolo dell'intelligenza, della fisica e del resto).

Dov'è il problema? :)



Tecnicamente, tutto quello che va a video è gestito da una scheda 3D da quando sono usciti gli acceleratori 3D, segnando un punto distintivo con la GeForce1.

Se però:
1. ci sono effetti che la scheda video non gestisce
2. la scheda video non è abbastanza potente
Allora subentra la CPU.


Ma l'idea di una GPU (since GeForce1 appunto), è proprio questa: gestire il 100% del rendering mentre la CPU fa altro.



UT2k4 avrà bisogno di una CPU potente per le ombre? Neppure troppo strano: UT non è mai stato un motore ceh tendesse a scaricare la CPU... tant'è vero che inizialmente (e con le patch) UT girava nativamente senza hardware 3D :)




La logica di fondo cmq è questa: una GPU è fatta per tentare di togliere TUTTO il calcolo 3D dalla CPU. Poi lo sviluppo tecnologico è talmente veloce che questo non è possibile, ma l'idea di fondo è questa. :)


ti riferisci al T&L delle geffo 1? Sull'argomento sono una capra, ma sentivo su hwupgrade che non è sfruttato ancora adesso

Beta1
01-02-2004, 17.52.19
sono stato sul sito di hwupgrade ma nemmeno un LINK mi funziona! non sò s edipende da me o da chissà cosa!

Ma le ombre dinamiche non sono gestite dalla GPU?? allora perchè serve una CPU + potente???!!