EM simulering på X5482 og X5472 Xeon-processorer

B

b

Guest
Kære alle,

Jeg tænkte på om nogen har gjort noget EM simulering, især CST MWS og HFSS på systemer med high-end Intel Xeon-processorer, dvs X5482 (3,2 GHz) eller X5472 (3,16 GHz).De re både quad-core type med 1600 FSB.Jeg vil gerne vide, om de ekstra simulation hastighed, de leverer, er værd at deres pris.Relaterede data ville blive værdsat.

Thanks in advance,

bølge-sindssyg

 
Hi bølge-m

Nu, Intel kommer med den nye LGA775 CPU Jeg tror, at bedre at købe en af dem
mindre pris bedre ydeevne.bruger chipsættet X38 og med over clocking til CPU og DDR 1333 kan du få 1600MHz og flere og for Xeon du er begrænset til brug
op til ECC DDR 800 MHz et dyrt hukommelse.
fordel for Xeon at du kan få 2 (workstation) eller 4 (server) CPU
er på én maskine, men nu, at du har Quad i LGA775 du kan få næsten de samme resultater i mindre pris.

I vedlagte her chipset af de to til at vise dig forskellen.og spec.af CPU's

pl
Beklager, men du skal login for at se denne tilslutningskrav

 
Kære plasma,

Tak for dit indlæg.Så vidt jeg har læst i forskellige edb-teknologi hjemmesider,
på trods af deres meget lignende struktur, "Intel 775pin"-processorer er tunet til gaming og normal computer applikationer henviser Intel Xeon-serien 5400 har været sammenknebne at give højeste massive antal crunching gennemstroemningsmaengden.

Hilsen

 
Fra min erfaring nogle spil bruger massive computation mere end EM
Simulering.Det
er grunden til, at en Game virksomheder bruge grafikkort for computing.Og nu kan du se, at's EM selskaber følger dem.
I vedlagte her en del fra acceleware, dk
Virksomheder typisk store beløb af hardware i et forsøg på at reducere Runtimes computerressourcer opgaver; flere servere, der optager en masse plads og generere yderligere omkostninger i forbindelse med boliger, drift og vedligeholdelse af dette udstyr.
I et tilfælde, hvor brugeren's software kan køre på én computer ad gangen, er så begrænset af de disponible ressourcer i det pågældende maskine.
Brugen af GPUs for at løse generelle formål computeropgaver er en ny konkurrencedygtig teknologi på områder, hvor brugerne deltage i intensive computer-modellering, såsom seismisk databehandling, biomedicinsk billeddannelse og elektromagnetiske simulering.I stedet for en computers CPU håndtering databehandlingsaktiviteterne kræves for at fuldføre opgaven,
GPU'en anvendes.Grafikkort have langt større datamodellering parallelisme end enkelt-eller multi-core CPU computing platforme.

or more tasks in parallel.

For eksempel, mens dagens Intel eller AMD
CPU'er kan udføre fire eller otte opgaver sideløbende, dagens GPUs kan udføre 128
eller flere opgaver sideløbende.
Nu Intel på at forebygge udvandring mod grafikkort lægge en større indsats for at 775CPU, og hvis du sammenligner det til Xeon det vil have bedre præstationer end Xeon.
Fordel for Xeon, som du kan bruge mere end én CPU på samme maskine.Men nu
At du har 775CPU 64bit quad du kan få næsten de samme resultater med en mindre pris.
Hvad vi skal gøre nu, er at spørge medlemmerne i forum til at køre nogle benchmark til
Nye CPU'er, Xeon og ikke Xeon og at se resultaterne.

pl

 
Jeg læste et sted at GPU i en high-end GeForce 8800-grafikkort kan gøre et par hundred gigaflops / sek.Det
er utroligt hurtigere end nogen bundkort.Men grafikkortet's begrænsede data I / O båndbredde er en flaskehals i mange antal crunching ansøgninger -
GPU'en idles meste af tiden, venter til dataoverførsel.Jeg kender ikke detaljerne, men.nVidia giver et Matlab biblioteket, så du kan gøre nogle forarbejdning opgaver let i GPU.

At GPU chip bruger ca 180 watt.Ouch!

 
Kære plasma,

Thanks for the info.Som nævnt i mit første spørgsmål, jeg var på udkig efter en sammenligning mellem den nyeste Xeon-processorer og deres forgængere.Min bemærkning om disse ikke-Xeon Intel processorer bliver sammenknebne til gaming ikke har noget at gøre med anvendelsen af GPUs for simuleringer.Med hensyn til det sidste emne, jeg vil gerne gøre opmærksom på:

Af de tre vigtigste EM simulering metoder, dvs FDTD, MOM og finite element, kun FDTD eller bedre sige tid domæne teknikker har nydt godt af GPU eller GPGPU.For moderat til stor grænse værdi problemer de to andre har brug for langt mere hukommelse end GPUs kan have integreret på deres bestyrelser (jeg normalt bruge mindst 10 GB og op til 32 GB hukommelse for finite element).Brug af hukommelse udefra grafikkort væsentligt svækker deres hastighed.På den anden side, som nu er der ingen effektiv gennemførelse af finite element eller øjeblik metode til GPUs eller GPGPUs.Ved effektiv, mener jeg en hastighed stigning på mindst et par gange og også en, der ikke fuldt ud inddrage CPU, og er egnet til en lang række sager.Hvis du kender nogen, så lad mig det vide.

Anyway, FDTD ikke dækker alle EM simuleringer.For eksempel, for høj-Q strukturer, især når den simulerede enhed ikke har en god impedans sammenstilling (som når en antenne er designet til et mål, andet end lav VSWR og matches senere), fuld konvergens betyder ikke, præcise resultater.Forudsigelse bruger signalbehandling teknikker kan ikke løse problemet enten.For sådanne tilfælde er det bedste alternativ er enten FE eller MOM dermed ingen nærtstående brug for GPUs.

 
Citat:

mens dagens Intel eller AMD CPU'er kan udføre 4 eller 8 opgaver sideløbende, dagens GPUs kan udføre 128 eller flere opgaver sideløbende.
 
plasma wrote:Jeg synes det er et spørgsmål om tid, at EDA selskaber bruger FE eller MOM vil bruge dette grafikkort prisen på DDR slip, og du kan finde grafikkort med hukommelse af 3 GB og 2GPU.
 
Hey Wave sindssyg, hvor meget RAM vil sved med 8 kerner?Og er det igen DELL mashine?Jeg tror, du ikke vil bygge-assemble den med dig, er du?

Jeg må sige, DELL 690 er stabil som en klippe så langt på WinXP 64-bit operativsystem.

 
Kære rfmw,

For start, jeg
har valgt 32 GB, men det kan udvides til 64 GB hvis det er nødvendigt.Det er en T7400 arbejdsstation.

 

Welcome to EDABoard.com

Sponsor

Back
Top