App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
GT300 Spekulationsthread
- Ersteller p4z1f1st
- Erstellt am
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
also bei pcgh steht, dass seit 4 jahren 3000 leute am fermi basteln.
der vater seinerzeit war ja chefingenieur kirk.
und der wurde anfang des jahres entmachtet.... da fragt man sich warum?
http://www.hardware-infos.com/news.php?news=2702
ich hab da so meine theorien
der vater seinerzeit war ja chefingenieur kirk.
und der wurde anfang des jahres entmachtet.... da fragt man sich warum?
http://www.hardware-infos.com/news.php?news=2702
ich hab da so meine theorien
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.982
- Renomée
- 232
@wu134
Sehe ich auch so, dass hier der Quadro Nachfolger präsentiert wurde.
Der Brot-und-Butter-Nachfolger für die Spieler ist vielleicht noch gar nicht so weit, dass man ihn präsentieren könnte, daher wird der andere vorgezeigt und darauf hingewiesen, dass man diesmal den Markt topdown bedienen wolle.
In Wirklichkeit sehen wir den eigentlichen GT300 erst irgnedwann später im kommenden Jahr. MfG
Sehe ich auch so, dass hier der Quadro Nachfolger präsentiert wurde.
Der Brot-und-Butter-Nachfolger für die Spieler ist vielleicht noch gar nicht so weit, dass man ihn präsentieren könnte, daher wird der andere vorgezeigt und darauf hingewiesen, dass man diesmal den Markt topdown bedienen wolle.
In Wirklichkeit sehen wir den eigentlichen GT300 erst irgnedwann später im kommenden Jahr. MfG
Wu134
Grand Admiral Special
- Mitglied seit
- 24.04.2006
- Beiträge
- 2.169
- Renomée
- 29
- Standort
- bei Ulm
- Mein Laptop
- Lenovo U41-70
- Prozessor
- AMD Athlon X4 860K
- Mainboard
- Gigabyte GA-F2A78M-DS2
- Kühlung
- Arctic Freezer Extreme
- Speicher
- G.Skill Ripjaws 2 x 4 GB DDR3-2133
- Grafikprozessor
- AMD RX460 2 GB
- Display
- 19" BenQ FP91GP 1280x1024
- SSD
- Crucial M500 120 GB
- HDD
- Samsung F2 500 GB
- Optisches Laufwerk
- Samsung SH-S183A
- Soundkarte
- onboard Realtek HD
- Gehäuse
- Coolermaster Centurion 5 + Silentmaxx Dämmung
- Netzteil
- BeQuiet L7 300W
- Betriebssystem
- Windows 10 x64
- Webbrowser
- Firefox
- Verschiedenes
- Idle 44 W, Prime95 133 W, Spiele ca. 170 W
Vor allem fehlt mir ein Nachfolger vom G80, G92 usw. Mit dem Riesenchip kann man zwar gut und gerne eine Highendkarte basteln, aber die Hälfte deaktivieren für eine Midrange-Karte? Das ist aufwändig und auch teuer, der einzige Vorteil wäre die Ausnutzung teildefekter Dies, aber dies vorsätzlich zu "kalkulieren" Aber erstmal muss der GT300 beweisen, was er ist und was er kann.
Die einzige Idee, warum NVidia so stark auf das GPGPU setzt, könnte sein, da Intel ähnliches mit Larrabee plant, dass wir kurz vor einem Richtungswechsel im Grafikdesign stehen. Vielleicht spielt da NVidia Roulette und setzt alles auf schwarz, da Rot ATI ist
Gruß
Die einzige Idee, warum NVidia so stark auf das GPGPU setzt, könnte sein, da Intel ähnliches mit Larrabee plant, dass wir kurz vor einem Richtungswechsel im Grafikdesign stehen. Vielleicht spielt da NVidia Roulette und setzt alles auf schwarz, da Rot ATI ist
Gruß
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Intels LArrabee ist aber noch ebensosehr Papiertiger wie Fermi.
Ausser vermeintlichen Samples hat man vom LArrabee auch noch nix greifbares gesehen und der wäre noch ein größeres Monster als ein Fermi, bei nichtmal konkurrenzfähiger Rechenleistung.
Intel setzt zwar auf den x86-Vorteil, von wegen Raytracing-Beschleuniger etc. aber irgenwdie kommt mir das ganze halbgar vor.
ICh mein, es nimmt doch nicht allen ernstes jemand an, dass ab nächstem Jahr ganz plötzlich lauter Cloud-Spiele gezockt werden, keiner mehr ne potente Grafik zuhause braucht und alles auf Serverfarmen gerechnet wird...!?
Und die die Auf larrabee setzen wegen x86, werden das sowieso tun ob mit oder ohne Fermi - Ein x86er ist der ja AFAIK nicht.
Vielleicht orientiert sich Nvidia langsam in richtug HPC/GPGPU etc. um weil sie angesichts eines Clarkdale, späteren SandyBridge und Fusion etc. fürchten dass sich der Markt für diskrete Grafikkarten früher oder später in Luft auflöst und man nur noch mit den reinen GPGPU-Numbercrunching - Fähigkeiten noch Geld Verdienen kann.
Immerhin ist Nvidia der einzige Hersteller am 3D-Grafik-Markt, der keine CPUs herstellt und auch mit den Chipsatz-Lizenzen Probleme hat.
Im klartext, der Fermi ist vielleicht Nvidias Versuch (grade in Hinblick auf die Verinfachung der Programmierung mit C++ etc.) eher einen sSper-Numbercruncher zu schaffen als einen GRafikchip, weil sie merken dass sie im regulären Graka-Business langsam rausgedrängt werden.
Wobei ob der Chip nun in Realität derart super ist, wird sich erst zeigen müssen.
Andererseits sind die Ingineure bei NVIDIA auch nicht doof, und wenn die sich 4 Jahre zeit nehmen sollte man meinen dass was akzeptables dabei herausspringt...
Aber an den "Richtungswechsel" im Grafikdesign glaube ich angesichts der Marktmacht von Microsofts DirectX nicht so ganz.
Es wurde zwar schon prophezeit, dass sich über kurz oder Lang die Entwickler von der API lösen werden und die chips direkt programmieren, das geht aber auch erst wenn die Marktdurchdringung solcher chips entsprechend groß ist, eine Grafikengine in C++ die nur auf dem Fermi läuft wäre wohl ein Rohrkrepierer... Und außerdem können sich den Aufwand auch nur Firmen geben die Engines zum weiterlizensieren entwickeln.
Für ein Wald und Wiesen - Spiel von irgendeinem Studio werden die sich sicher nicht hinsetzen und an DX vorbei irgend ne engine auf dem Rohsilizium implementieren....
also alles erstmal nur Marketinggeblubber...
Grüßle,
ich
Ausser vermeintlichen Samples hat man vom LArrabee auch noch nix greifbares gesehen und der wäre noch ein größeres Monster als ein Fermi, bei nichtmal konkurrenzfähiger Rechenleistung.
Intel setzt zwar auf den x86-Vorteil, von wegen Raytracing-Beschleuniger etc. aber irgenwdie kommt mir das ganze halbgar vor.
ICh mein, es nimmt doch nicht allen ernstes jemand an, dass ab nächstem Jahr ganz plötzlich lauter Cloud-Spiele gezockt werden, keiner mehr ne potente Grafik zuhause braucht und alles auf Serverfarmen gerechnet wird...!?
Und die die Auf larrabee setzen wegen x86, werden das sowieso tun ob mit oder ohne Fermi - Ein x86er ist der ja AFAIK nicht.
Vielleicht orientiert sich Nvidia langsam in richtug HPC/GPGPU etc. um weil sie angesichts eines Clarkdale, späteren SandyBridge und Fusion etc. fürchten dass sich der Markt für diskrete Grafikkarten früher oder später in Luft auflöst und man nur noch mit den reinen GPGPU-Numbercrunching - Fähigkeiten noch Geld Verdienen kann.
Immerhin ist Nvidia der einzige Hersteller am 3D-Grafik-Markt, der keine CPUs herstellt und auch mit den Chipsatz-Lizenzen Probleme hat.
Im klartext, der Fermi ist vielleicht Nvidias Versuch (grade in Hinblick auf die Verinfachung der Programmierung mit C++ etc.) eher einen sSper-Numbercruncher zu schaffen als einen GRafikchip, weil sie merken dass sie im regulären Graka-Business langsam rausgedrängt werden.
Wobei ob der Chip nun in Realität derart super ist, wird sich erst zeigen müssen.
Andererseits sind die Ingineure bei NVIDIA auch nicht doof, und wenn die sich 4 Jahre zeit nehmen sollte man meinen dass was akzeptables dabei herausspringt...
Aber an den "Richtungswechsel" im Grafikdesign glaube ich angesichts der Marktmacht von Microsofts DirectX nicht so ganz.
Es wurde zwar schon prophezeit, dass sich über kurz oder Lang die Entwickler von der API lösen werden und die chips direkt programmieren, das geht aber auch erst wenn die Marktdurchdringung solcher chips entsprechend groß ist, eine Grafikengine in C++ die nur auf dem Fermi läuft wäre wohl ein Rohrkrepierer... Und außerdem können sich den Aufwand auch nur Firmen geben die Engines zum weiterlizensieren entwickeln.
Für ein Wald und Wiesen - Spiel von irgendeinem Studio werden die sich sicher nicht hinsetzen und an DX vorbei irgend ne engine auf dem Rohsilizium implementieren....
also alles erstmal nur Marketinggeblubber...
Grüßle,
ich
Lepus
Fleet Captain Special
- Mitglied seit
- 14.08.2009
- Beiträge
- 289
- Renomée
- 1
- Standort
- München
- Mein Laptop
- Alienware M17x R4
- Prozessor
- Intel Core i7-3820M Single Thread @ max 4,1GHz
- Speicher
- 2x4GB Mushkin 1600MHz (ULV)
- Grafikprozessor
- Dell AMD HD 7970M
- Display
- 17,3" FHD
- HDD
- Crucial m4 256Gb mSata
- Optisches Laufwerk
- HL-DT-ST DVDRW/BR-ROM
- Soundkarte
- Creative Sound Blaster Recon 3Di / HM77
- Gehäuse
- Alienware M17x R4
- Netzteil
- Dell 240W
- Betriebssystem
- Windows 8
- Webbrowser
- Opera
Darf er ja auch net, weil NV keine Lizenz hatUnd die die Auf larrabee setzen wegen x86, werden das sowieso tun ob mit oder ohne Fermi - Ein x86er ist der ja AFAIK nicht.
Sway Dizzle
Grand Admiral Special
Warum wird eigentlich der Fred nicht umbenannt in "Wir machen alle nieder,außer ATI"?
Menace
Vice Admiral Special
- Mitglied seit
- 04.10.2007
- Beiträge
- 961
- Renomée
- 26
- Lieblingsprojekt
- World Community
- Meine Systeme
- Ryzen R7 1700
- BOINC-Statistiken
- Mein Laptop
- HP Elitebook
- Prozessor
- AMD R7 1700
- Mainboard
- Asus ROG Crosshair VI Hero AMD X370
- Kühlung
- be quiet! Pure Rock Tower Kühler
- Speicher
- 16GB (2x 8192MB) G.Skill Trident Z
- Grafikprozessor
- AMD Asus R9Nano
- Display
- NEC EA232WMI, Benq SW2700PT
- SSD
- Samsung EVO 500 GB, 2 x Samsungs EVO 1 GB
- HDD
- 1 x WD6400AAKS
- Optisches Laufwerk
- LG
- Soundkarte
- Focusrite Scarlett 2i4 II
- Gehäuse
- be quiet! Silent Base
- Netzteil
- 550 Watt be quiet! Dark Power Pro 11 Modular 80+ Platinum
- Betriebssystem
- Windows 10
- Webbrowser
- Vivaldi Developer
Man kann ja einfach mal die Niedermach-Argumente entkräften? Wenn man nvidia unterschätzt, macht man bestimmt einen Fehler. Aber die Show-Veranstaltung ist und bleibt eine Ver*rsche.
Zuletzt bearbeitet:
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Heyhey... ich habe extra erwähnt dass das Design an sich recht interessant ist!
Aber wie immer, birgt ein neuer Ansatz auch das Risiko dass es fundamental daneben geht, und dem muss sich auch NVIDIA stellen!
Und dass NV undbeingt ein 500mm² - Montstrum schaffen musste das sich sogar in 40nm nicht einfach herstellen lässt und wohl dieses Jahr nicht mehr fertig wird, ist nicht unsere Schuld! - Es ist nunmal fakt.
Tschuldigung, aber NV ist keine "kleine Klitsche, die es nicht besser weiß"...
Und bezüglich Larrabee ist wohl auch bekannt dass sogar dessen theoretische Peak-Rechenleistung noch unter eine cypress liegen würde. und das teil hat in 45nm satte 600mm². Also Sorry dass man dafür nicht unbedingt Lorbeeren im großen Stil verteilen kann!
ATI hat eben zur Abwechslung mal ein gutes Händchen. Sie haten genug magere Jahre, Verzögerungen etc. nun wirds mal zeit dass sie von der Glückssträhne profitieren.
Das ist nur gut für den MArkt, gesunder Konkurrenzkampf!
Und wie gesagt, Fermi ist nicht uninteressant... ein etwas andere Ansatz und anscheinend mehr geklotzt als gekleckert, aber auch der wird sich der harten Realität stellen müssen, und die lautet nunmal nach derzeitiger Wissenlsage, Nvidia ist nicht fertig und hat momentan nichts vorzuweisen als einen theoretischen papiertiger von dem nicht bekannt ist wann wir was davon zu sehen kriegen.... Wenn sich ATI das leisten würde, müssten sie sich denselben Vorwürfen stellen. Also ist das nur gerecht.
Allgemein gesprochen scheint ATI mit den letzten Generationen das alte mythos von "viel hilft viel" in Sachen DIE-Größe widerlegt zu haben. Dass Intel und Nvidia dem Größenwahn erlegen sind und monsterchips fabrizieren müssen ist nicht ATIs oder unser Fehler.
.
EDIT :
.
Aber wie immer, birgt ein neuer Ansatz auch das Risiko dass es fundamental daneben geht, und dem muss sich auch NVIDIA stellen!
Und dass NV undbeingt ein 500mm² - Montstrum schaffen musste das sich sogar in 40nm nicht einfach herstellen lässt und wohl dieses Jahr nicht mehr fertig wird, ist nicht unsere Schuld! - Es ist nunmal fakt.
Tschuldigung, aber NV ist keine "kleine Klitsche, die es nicht besser weiß"...
Und bezüglich Larrabee ist wohl auch bekannt dass sogar dessen theoretische Peak-Rechenleistung noch unter eine cypress liegen würde. und das teil hat in 45nm satte 600mm². Also Sorry dass man dafür nicht unbedingt Lorbeeren im großen Stil verteilen kann!
ATI hat eben zur Abwechslung mal ein gutes Händchen. Sie haten genug magere Jahre, Verzögerungen etc. nun wirds mal zeit dass sie von der Glückssträhne profitieren.
Das ist nur gut für den MArkt, gesunder Konkurrenzkampf!
Und wie gesagt, Fermi ist nicht uninteressant... ein etwas andere Ansatz und anscheinend mehr geklotzt als gekleckert, aber auch der wird sich der harten Realität stellen müssen, und die lautet nunmal nach derzeitiger Wissenlsage, Nvidia ist nicht fertig und hat momentan nichts vorzuweisen als einen theoretischen papiertiger von dem nicht bekannt ist wann wir was davon zu sehen kriegen.... Wenn sich ATI das leisten würde, müssten sie sich denselben Vorwürfen stellen. Also ist das nur gerecht.
Allgemein gesprochen scheint ATI mit den letzten Generationen das alte mythos von "viel hilft viel" in Sachen DIE-Größe widerlegt zu haben. Dass Intel und Nvidia dem Größenwahn erlegen sind und monsterchips fabrizieren müssen ist nicht ATIs oder unser Fehler.
.
EDIT :
.
Wenn sogar gefälschte Karten gezeigt werden... - Ein Armustzeugnis für eine Weltfirma...Aber die Show-Veranstaltung ist und bleibt eine Ver*rsche.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.224
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Wenn sogar gefälschte Karten gezeigt werden... - Ein Armustzeugnis für eine Weltfirma...
Nunja gefälscht ist relative, vermute eher das eine Tesla Karte kurzer Hand einen DVI Port bekommen hat.
Ich glaube auch nicht daran das Fermi ein Zocker Karte werden soll!
@ [MTB]JackTheRipper
Seitdem es die 5870 gibt, wird es wohl auf lange Sicht, eine Mainstream Karte (GTX285) werden
Offensichtlich sah sich Nvidia jetzt dazu genötigt, endlich mit der Wahrheit rauszurücken
Fuad hat was dazu geschrieben (was mich überrascht, weil er momentan Nvidia allgemein sehr positiv darstellt....das ganze als Speichellecker-Tripp zu bezeichnen würde es wohl auch treffen. )
Also es sieht wohl so aus: Die "echte" Fermi-Karte besteht aus genz vielen drähten und kabeln und ist unansehnlich. Also hat man lieber den Praktikanten im Hobbykeller ein ansehnliches Dings basteln lassen, dass man dann als Fermi präsentiert hat.
Interessant ist, dass Fuad erwähnt, dass man bald die Originalkarte zeigen will....
Und er verweist sogar auf Charly von semiaccurate und erklärt, dass dieser mit seiner Einschätzung also Recht hatte. (Warum hat nvidia nicht charly auch einfach die Wahrheit gesagt, ist doch gar nicht so schwer......)
Da hat Nvidia offensichtlich nicht damit gerechnet, dass soviel Wind darum gemacht wird. Jetzt muss man mal mit dem Original rausrücken. Hoffentlich drücken sie jetzt nicht gerade dem Praktikanten ein paar Drähte und Kabel in die Hand und sagen er soll was basteln, was wie eine unfertige Grafikkarte aussieht.....
Naja, da steht jetzt Mr. Huang trotzdem dumm da, dass er das Ding wie sein Baby unter dem Tuch hervorgeholt hat und dann gesagt hat: " This, ladies and gentlemen, this puppy here, is Fermi." (ob das mit dem Puppy wohl schon eine Andeutung sein sollte....)
Das heißt aber auch, dass es offensichtlich tatsächlich noch nicht viele Prototypen gibt und dass diese sich in einem sehr sehr sehr frühen Stadium befinden.
Fuad hat was dazu geschrieben (was mich überrascht, weil er momentan Nvidia allgemein sehr positiv darstellt....das ganze als Speichellecker-Tripp zu bezeichnen würde es wohl auch treffen. )
Also es sieht wohl so aus: Die "echte" Fermi-Karte besteht aus genz vielen drähten und kabeln und ist unansehnlich. Also hat man lieber den Praktikanten im Hobbykeller ein ansehnliches Dings basteln lassen, dass man dann als Fermi präsentiert hat.
Interessant ist, dass Fuad erwähnt, dass man bald die Originalkarte zeigen will....
Und er verweist sogar auf Charly von semiaccurate und erklärt, dass dieser mit seiner Einschätzung also Recht hatte. (Warum hat nvidia nicht charly auch einfach die Wahrheit gesagt, ist doch gar nicht so schwer......)
Da hat Nvidia offensichtlich nicht damit gerechnet, dass soviel Wind darum gemacht wird. Jetzt muss man mal mit dem Original rausrücken. Hoffentlich drücken sie jetzt nicht gerade dem Praktikanten ein paar Drähte und Kabel in die Hand und sagen er soll was basteln, was wie eine unfertige Grafikkarte aussieht.....
Naja, da steht jetzt Mr. Huang trotzdem dumm da, dass er das Ding wie sein Baby unter dem Tuch hervorgeholt hat und dann gesagt hat: " This, ladies and gentlemen, this puppy here, is Fermi." (ob das mit dem Puppy wohl schon eine Andeutung sein sollte....)
Das heißt aber auch, dass es offensichtlich tatsächlich noch nicht viele Prototypen gibt und dass diese sich in einem sehr sehr sehr frühen Stadium befinden.
Zuletzt bearbeitet:
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.224
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Wird wohl so sein das es Fermi als Tesla gibt nur eben nicht als Mainstram Karte.
Jetzt wollte die nVidia Jungs vermutlich wissen ob es bei den Kunden überhaupt interesse für so eine Monster-Karte gibt!
(die haben sich bestimmt gedacht das interresiert eh keinen, fühlten sich aber durch den guten HD58XX Start, dazu genötigt ein kleinen Fake zu Riskieren!)
Demnach gab es genug Wind, um nun eine echte zu zeigen, also reines Marketing?
Jetzt wollte die nVidia Jungs vermutlich wissen ob es bei den Kunden überhaupt interesse für so eine Monster-Karte gibt!
(die haben sich bestimmt gedacht das interresiert eh keinen, fühlten sich aber durch den guten HD58XX Start, dazu genötigt ein kleinen Fake zu Riskieren!)
Demnach gab es genug Wind, um nun eine echte zu zeigen, also reines Marketing?
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
@ isigrim:
fuad als speichellecker zu bezeichnen, beleidigt alle speichellecker.
er ist eher so ne art käuflich zu erwerbenes, devotes objekt *gg*
charlie anzuzweifeln würde den rest seiner kompetenz begraben. auf eine baldige veröffentlichung zu verweisen.... siehe oben..
oder 7 of 7 wird jetzt tatsächlich krampfhaft irgendwie verlötet. man gönnt sich ja sonst nix, dann wird 7 of 7 eben geopfert *gg*
fuad als speichellecker zu bezeichnen, beleidigt alle speichellecker.
er ist eher so ne art käuflich zu erwerbenes, devotes objekt *gg*
charlie anzuzweifeln würde den rest seiner kompetenz begraben. auf eine baldige veröffentlichung zu verweisen.... siehe oben..
oder 7 of 7 wird jetzt tatsächlich krampfhaft irgendwie verlötet. man gönnt sich ja sonst nix, dann wird 7 of 7 eben geopfert *gg*
Zuletzt bearbeitet:
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
imerhin heißt das, das es wohl in der tat noch bei weitem nichts vorzeigbares gibt,das einer retailkarte auch nur ähnelt...
w0mbat
Commodore Special
- Mitglied seit
- 19.05.2006
- Beiträge
- 416
- Renomée
- 18
- Mein Laptop
- Lenovo ThinkPad L450@Ubuntu MATE
- Prozessor
- AMD Ryzen 7 5800X3D
- Mainboard
- MSI MAG B550M Mortar Max WIFI
- Kühlung
- NZXT Kraken X63
- Speicher
- G.SKILL F4-3600C17D-32GTZR
- Grafikprozessor
- XFX Speedster QICK 319 Radeon RX 6800 BLACK Gaming
- Display
- LG 34UC79G-B
- SSD
- 2TB WD_BLACK SN850X | 2TB Samsung 970 EVO Plus
- Soundkarte
- Realtek ALC1220
- Gehäuse
- Lian Li O11 Dynamic Mini
- Netzteil
- Cougar SF750 Platinum
- Tastatur
- CM QuickFire Rapid-i
- Maus
- Logitech G Pro X Superlight 2
- Betriebssystem
- Windows 11 Pro x64
- Webbrowser
- Firefox
@ isigrim:
fuad als speichellecker zu bezeichnen, beleidigt alle speichellecker.
er ist eher so ne art käuflich zu erwerbenes, devotes objekt *gg*
[...]
Sag mal, gehts noch? Vielleicht bist du selber ein käuflich erwerbbares, devotes Objekt?
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
Sag mal, gehts noch? Vielleicht bist du selber ein käuflich erwerbbares, devotes Objekt?
komm mal runter. was ich da so letzte zeit lese, von dem guten, ist reinste nvidia-werbemaschinerie.
also was willste mir erzählen?
schau mal alleine die seite *gg*
http://www.fudzilla.com/
ich seh da nur nvidia
http://www.fudzilla.com/content/view/15794/1/
und sowas ist nicht werbung? nvidia, der retter der pc games? *gg*
nvidia hat eher bis jetzt dx10.1 verhindert. toller retter
man muß schon arg naiv sein um bei solch "berichterstattung" nicht finanzielle hintergründe zu sehen. sorry
und PS: ich arbeite im marketing, zwar ne andere branche, aber egal.
(eigentlich noch mafiaähnlicher sogar, pharmaindustrie, also glaub mir ich weiß, was ich sehe. aber wir sind die, die bezahlen )
was sagt amd zu dem thema?
http://www.hartware.de/news_47712.html
"Es gibt einen großen Unterschied zwischen dem was Nvidia sagt und was sie tun. Sie sagen, sie wollen nur das Beste für die Spieler. Ihre Entscheidungen aber führen zum genauen Gegenteil."
PS: was anderes:
http://www.xbitlabs.com/news/video/...irst_Graphics_Cards_on_Track_for_Q4_2009.html
dann bei:
"Besides, many press outlets as well as technology forums (1, 2) over the Internet expressed doubts that the demonstrated Fermi-G300 card was real."
auf 2 klicken. dann wird man zum p3dnow forum verlinkt
man wird ja direkt weltweit berühmt
Zuletzt bearbeitet:
denjo
Grand Admiral Special
- Mitglied seit
- 28.12.2005
- Beiträge
- 3.746
- Renomée
- 116
- Standort
- Kellinghusen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- PDM <--- sowas gabs mal :(
- Lieblingsprojekt
- all
- Meine Systeme
- Ryzen 7 1700, 3.60GHz
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- Ryzen 9 3900X, 4,1Ghz All Core VID 1.13
- Mainboard
- ASUS ROG Strix B550-E Gaming
- Kühlung
- Thermalright Le Grand Macho RT
- Speicher
- Gskill F4-3600C16-8GTZNC -> 4*8 GB 3733Mhz (16-19-19-19-35)
- Grafikprozessor
- 5700XT Nitro+
- Display
- LG UltraGear 27GL850-B
- SSD
- Samsung 970 NVMe 1 TB
- HDD
- Western Digital Blue 4TB + 500 Samsung
- Optisches Laufwerk
- gehören der Vergangenheit an.
- Soundkarte
- Onboard
- Gehäuse
- bequite! PURE BASE 500
- Netzteil
- Enermax Revolution87+ 550 W GOLD -> Thx p3d
- Betriebssystem
- Windows X
- Webbrowser
- Chrome, Firefox
- Verschiedenes
- MEHR POWER ^^
- Internetanbindung
- ▼600 ▲50
ich geh mal davon aus das der gt300 schneller sein wird als die 5870 aber das ist ja auch gut so.
ati richtet es irgendwann wieder über den preis und nvidia muss ihre karten wieder billig verschleudern egal wann der gt300 kommt ati gehts dan trotzdem gut.
ati richtet es irgendwann wieder über den preis und nvidia muss ihre karten wieder billig verschleudern egal wann der gt300 kommt ati gehts dan trotzdem gut.
chemiker494
Captain Special
- Mitglied seit
- 15.08.2008
- Beiträge
- 229
- Renomée
- 12
- Standort
- Biel/Bienne - Schweiz
- Aktuelle Projekte
- QMC, Rosetta, Docking POEM
- Lieblingsprojekt
- Biochemie/Medizin
- Meine Systeme
- Athlon 64X2 5400 2.8GHz, Xeon (Nocona) 2.8GHz, Pentium 4 (Northwood) 2.8GHz
- Prozessor
- AMD Athlon X2 5400+@2.8GHz
- Mainboard
- Asus M2A-VM-HDMI
- Kühlung
- Box
- Speicher
- 2x1GB KVR800D2N5K2/2G
- Grafikprozessor
- Radeon Xpress 1250
- Display
- 19" Philips 190P7ES
- HDD
- 320 GB Samsung F1
- Optisches Laufwerk
- LG DVD-Brenner20x
- Soundkarte
- Realtek Al889
- Gehäuse
- Asus V2A690G Barebone
- Netzteil
- 300W integriert
- Betriebssystem
- Xubuntu 8.04
- Webbrowser
- Firefox 3
Das hängt wohl von dem jeweiligen Spiel ab.
Deutlich abhängen wird sie die Radeon ganz bestimmt im Grafikkartenweitwurf (bessere Aerodynamik & geringeres Gewicht dank agesägtem PCB)...
Deutlich abhängen wird sie die Radeon ganz bestimmt im Grafikkartenweitwurf (bessere Aerodynamik & geringeres Gewicht dank agesägtem PCB)...
Also wegen Fuad:
Der ist momentan bei der Nvidia Technology Conference und berichtet deshalb relativ viel. Soviel zur Entschuldigung. Wie er berichtet ist allerdings einfach deutlich zu unkritisch und hat mit kritischem Hinterfragen und damit seriösem Journalismus nichts zu tun. Das meinte ich mit Speichelleckerei. Warum er das macht, weiß ich nicht und ich will hier nicht zu viel unterstellen.
Gerade für die vielen lustigen Spekulationen die es bei ihm häufig gibt, bin ich sehr dankbar, weil das immer recht unterhaltsam ist. Man muss das halt immer mit einem dicken Fragezeichen lesen, aber das gehört ja eh dazu. Aber ohne ihn wär das ganze IT Zeugs deutlich weniger unterhaltsam.
Der ist momentan bei der Nvidia Technology Conference und berichtet deshalb relativ viel. Soviel zur Entschuldigung. Wie er berichtet ist allerdings einfach deutlich zu unkritisch und hat mit kritischem Hinterfragen und damit seriösem Journalismus nichts zu tun. Das meinte ich mit Speichelleckerei. Warum er das macht, weiß ich nicht und ich will hier nicht zu viel unterstellen.
Gerade für die vielen lustigen Spekulationen die es bei ihm häufig gibt, bin ich sehr dankbar, weil das immer recht unterhaltsam ist. Man muss das halt immer mit einem dicken Fragezeichen lesen, aber das gehört ja eh dazu. Aber ohne ihn wär das ganze IT Zeugs deutlich weniger unterhaltsam.
ORNL hat schon angekündigt, das sie die kommenden Nvidia Karten einsetzen werden. Lucas arts Technical Chief hat gestern, während der GTC angekündigt, gar eine ganze Rendering Farm mittels der der neuen Grafikbeschleuniger aufzubauen.
Wenn das mal auf Dauer nicht eng wird für die CPU Hersteller.
Wenn das mal auf Dauer nicht eng wird für die CPU Hersteller.
Das ist eben der Punkt: Nvidia greift mit dem Fermi nach HPC.
Das heißt man könnte das auch als Nvidias Server-"GPU" sehen (wenn nicht gar eigentlich als CPU, sehen, denn der zentrale Rechenaufwand bei den betreffenden Servern findet ja auf der GPU statt)
Deshalb anfangs meine Frage, ob es nicht möglich ist, dass wir Fermi gar nicht als Grafikkarten im Endanwenderbereich sehen, sondern dort ein eigener Ableger mit eigenem Die kommt. Wenn ich schon sehe, dass auch die internen Caches der GPU mit ECC ausgestattet werden, bin ich mir nicht sicher, ob sich bei Fermi überhaupt viel für die Spieler getan hat und ob nicht stattdessen alle Entwicklung in die GPGPU Richtung geflossen ist.
Dafür könnte man ja für den Massenmarkt der Spieler einen eigenen Die fertigen lassen, der eben kleiner ist und auch weniger Ballast mitschleppt. Wenn der HPC-Markt ein gewisses Volumen erreicht und das muss er für Nvidia, damit sich Fermi rentiert, dann rentiert sich gleichzeitig auch die Eigententwicklung einer GPU für Spieler, da man für beide Dies einen großen Absatzmarkt erwartet. Bisher machte der GPGPU-Bereich ja keinen großen Umsatz. Das dürfte sich nach den Meldungen jetzt ändern.
Nachtrag:
Von einem GT300 spricht Jen-Hsun Huang bei der Konferrenz gar nicht, auch die Blogeinträge sprechen davon nicht. (Es kommt nichteinmal ein: Fermi oder auch GT300) Das Ding dort wird konsequent als Fermi bezeichnet. Der GT300, der dieses Jahr noch kommen soll, könnte also tatsächlich ein anderer Chip sein, der zwar auf der gleichen Grundarchitektur wie Fermi basiert, aber nicht mit dem für GPGPU entwickelten Chip identisch ist.(Dieser könnte dann theoretisch auch kleiner sein und damit im reinen GPU-Markt konkurrenzfähiger.)
Das heißt man könnte das auch als Nvidias Server-"GPU" sehen (wenn nicht gar eigentlich als CPU, sehen, denn der zentrale Rechenaufwand bei den betreffenden Servern findet ja auf der GPU statt)
Deshalb anfangs meine Frage, ob es nicht möglich ist, dass wir Fermi gar nicht als Grafikkarten im Endanwenderbereich sehen, sondern dort ein eigener Ableger mit eigenem Die kommt. Wenn ich schon sehe, dass auch die internen Caches der GPU mit ECC ausgestattet werden, bin ich mir nicht sicher, ob sich bei Fermi überhaupt viel für die Spieler getan hat und ob nicht stattdessen alle Entwicklung in die GPGPU Richtung geflossen ist.
Dafür könnte man ja für den Massenmarkt der Spieler einen eigenen Die fertigen lassen, der eben kleiner ist und auch weniger Ballast mitschleppt. Wenn der HPC-Markt ein gewisses Volumen erreicht und das muss er für Nvidia, damit sich Fermi rentiert, dann rentiert sich gleichzeitig auch die Eigententwicklung einer GPU für Spieler, da man für beide Dies einen großen Absatzmarkt erwartet. Bisher machte der GPGPU-Bereich ja keinen großen Umsatz. Das dürfte sich nach den Meldungen jetzt ändern.
Nachtrag:
Von einem GT300 spricht Jen-Hsun Huang bei der Konferrenz gar nicht, auch die Blogeinträge sprechen davon nicht. (Es kommt nichteinmal ein: Fermi oder auch GT300) Das Ding dort wird konsequent als Fermi bezeichnet. Der GT300, der dieses Jahr noch kommen soll, könnte also tatsächlich ein anderer Chip sein, der zwar auf der gleichen Grundarchitektur wie Fermi basiert, aber nicht mit dem für GPGPU entwickelten Chip identisch ist.(Dieser könnte dann theoretisch auch kleiner sein und damit im reinen GPU-Markt konkurrenzfähiger.)
Zuletzt bearbeitet:
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Trotzdem ist es deutlich zu früh um darüber zu diskutieren wer schneller ist.
AMD hat momentan HW-Mäßig die Nase vorn, nun wirds Zeit dass sie an ihren Treibern arbeiten! - schleunigst!
Genauso wie am SDK für OpenCL auf grakas und alledem. Die ATI-HW ist mittlerweile sehr gut und setzt Maßstäbe in mancherlei hinsicht, aber die Software hinkt Nvidia noch ein ganzes Stück hinterher.
Der Fermi schaut grandios aus, aber ob er in dieser Form als reguläre Desktop-Graka kommt ist fraglich.
In der SP-Leistung sieht er ohnehin keine Sonne gegen eine Cypress und im DP kann er sie womöglich knapp überholen, aber auch nicht grandios, wenn man dieses Monster betrachtet...
Zudem ist Rohleistung auch noch was anderes als Leistung die man direkt nutzen kann! - Noch ist nicht Raus wie effizient das Design tatsächlich arbeitet und in verschienen Situationen.
Ich erinnere mich an Zeiten, wo die bloße Reihenfolge von Grafikdaten (texturen etc.) und deren Verhältnis zueinander einen immensen Unterschied in der Leitung ausmachte, weil es einfach grade zur hardware "passte" und nur dann richtig effizient lief.
Ich will dem Fermi nichts unterstellen, ich sage nur für eine genaue Betrachtung ist es noch zu früh und die Cypress-Chips sehen von den rohdaten her auch alles andere als schlecht aus... ich warte eigentlich nur darauf dass Gipsel die neuen Fähigkeiten für seinen Milkyway-client nutzt und die dinger abgehen wie ne Rakete mit Fusionsantrieb....
grüßchen
ich
AMD hat momentan HW-Mäßig die Nase vorn, nun wirds Zeit dass sie an ihren Treibern arbeiten! - schleunigst!
Genauso wie am SDK für OpenCL auf grakas und alledem. Die ATI-HW ist mittlerweile sehr gut und setzt Maßstäbe in mancherlei hinsicht, aber die Software hinkt Nvidia noch ein ganzes Stück hinterher.
Der Fermi schaut grandios aus, aber ob er in dieser Form als reguläre Desktop-Graka kommt ist fraglich.
In der SP-Leistung sieht er ohnehin keine Sonne gegen eine Cypress und im DP kann er sie womöglich knapp überholen, aber auch nicht grandios, wenn man dieses Monster betrachtet...
Zudem ist Rohleistung auch noch was anderes als Leistung die man direkt nutzen kann! - Noch ist nicht Raus wie effizient das Design tatsächlich arbeitet und in verschienen Situationen.
Ich erinnere mich an Zeiten, wo die bloße Reihenfolge von Grafikdaten (texturen etc.) und deren Verhältnis zueinander einen immensen Unterschied in der Leitung ausmachte, weil es einfach grade zur hardware "passte" und nur dann richtig effizient lief.
Ich will dem Fermi nichts unterstellen, ich sage nur für eine genaue Betrachtung ist es noch zu früh und die Cypress-Chips sehen von den rohdaten her auch alles andere als schlecht aus... ich warte eigentlich nur darauf dass Gipsel die neuen Fähigkeiten für seinen Milkyway-client nutzt und die dinger abgehen wie ne Rakete mit Fusionsantrieb....
grüßchen
ich
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Als Steuerleitwerk werden Prozessoren nach wie vor genutzt. Im HPC-Bereich braucht man immer noch beides.ORNL hat schon angekündigt, das sie die kommenden Nvidia Karten einsetzen werden. Lucas arts Technical Chief hat gestern, während der GTC angekündigt, gar eine ganze Rendering Farm mittels der der neuen Grafikbeschleuniger aufzubauen.
Wenn das mal auf Dauer nicht eng wird für die CPU Hersteller.
Schon in der Vergangenheit wurden FPGAs, spezielle Multicores (Cell, Clearspeed) eingesetzt ... und dennoch wurden die Cluster immer größer mit noch mehr Prozessoren.
Das ist noch ein weites Stück Weg für wirklich universelle GPGPUs, falls und bis die sich in allen Bereichen der klassischen (skalaren) Prozessoren in den Weg stellen werden.
MFG Bobo(2009)
Bright Side of News: GT300 Demo card was a Dummy; Does that really matter?
Was soll man denn von so einer Berichterstattung halten?
1. Angeblich sei die Information, dass es sich um einen Dummy genhandelt habe, von AMD geleaked worden.....
Gibts dafür Beweise? Undergroundking hatte es ja hier imForum auch gesehen, also was soll diese Unterstellung.
2. "Es ist doch vällig normal, dass Dummys gezeigt werden."
Stimmt, das ist normal. Normalerweise kann man es auch einfach sagen. Hat Nvidia aber nicht gemacht, im Gegenteil.
In dieser Hinsicht sei nocheinmal darauf verwiesen, dass der Vergleich: Dummy bei Autoshow und Dummy bei Fermi-Vorführung gewaltig hinkt. Tesla-Karten werden nun einmal nicht nach dem äußeren Design gekauft. Und eben dieses Design erprobt man normalerweise, wenn man auf Autoshows eine Karosserie ohne Motor zeigt. Man testet das Design.....das ist hier aber völlig irrelevant.
Die Schlussfolgerung ist dann komplett kurios: "AMD hat furchtbar Angst vor Fermi und versucht deshalb Nvidia schlecht zu machen...."
Es findet eine völlige Umkehr der Tatsachen statt. Plötzlich soll AMD daran Schuld sein, dass der Fake um die Welt gegangen ist?
Also ich finde ja auch, dass man darüber streiten kann, ob es schlimm war. Aber jetzt AMD dafür verantwortlich zu machen ist derart bestialisch unseriös. Wie kann man denn ernsthaft sowas schreiben?
Was soll man denn von so einer Berichterstattung halten?
1. Angeblich sei die Information, dass es sich um einen Dummy genhandelt habe, von AMD geleaked worden.....
Gibts dafür Beweise? Undergroundking hatte es ja hier imForum auch gesehen, also was soll diese Unterstellung.
2. "Es ist doch vällig normal, dass Dummys gezeigt werden."
Stimmt, das ist normal. Normalerweise kann man es auch einfach sagen. Hat Nvidia aber nicht gemacht, im Gegenteil.
In dieser Hinsicht sei nocheinmal darauf verwiesen, dass der Vergleich: Dummy bei Autoshow und Dummy bei Fermi-Vorführung gewaltig hinkt. Tesla-Karten werden nun einmal nicht nach dem äußeren Design gekauft. Und eben dieses Design erprobt man normalerweise, wenn man auf Autoshows eine Karosserie ohne Motor zeigt. Man testet das Design.....das ist hier aber völlig irrelevant.
Die Schlussfolgerung ist dann komplett kurios: "AMD hat furchtbar Angst vor Fermi und versucht deshalb Nvidia schlecht zu machen...."
Es findet eine völlige Umkehr der Tatsachen statt. Plötzlich soll AMD daran Schuld sein, dass der Fake um die Welt gegangen ist?
Also ich finde ja auch, dass man darüber streiten kann, ob es schlimm war. Aber jetzt AMD dafür verantwortlich zu machen ist derart bestialisch unseriös. Wie kann man denn ernsthaft sowas schreiben?
Zuletzt bearbeitet:
Hast nicht den PR Mitarbeiter gesehen, der sich in jedem Forum registriert hat und uns erhellt hat... Wie kann das auch sein, dass ein Normalsterblicher auch nur im geringsten das offensichtlich gecuttete PCB die "perfekte" Lüfteranordnung oder die geklebten Stromanschlüsse hätte erkennen können. So blöd ist Nvidia nun auch nicht.
[Ironie OFF]
[Ironie OFF]
sysfried
Vice Admiral Special
- Mitglied seit
- 08.09.2005
- Beiträge
- 539
- Renomée
- 68
- Standort
- Stuttgart
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhege @ Home & Cosmology @ Home
- Lieblingsprojekt
- Cosmology @ Home
- BOINC-Statistiken
Bright Side of News: GT300 Demo card was a Dummy; Does that really matter?
Was soll man denn von so einer Berichterstattung halten?
Das gute als BSN* Editor ist die Tatsache, das wir nicht der selben Meinung sein müssen. Ich sehe das durchaus anders als Sean, aber wen stört das schon, ich hab in vielen Dingen nicht die selbe Meinung wie er.
Gruß,
Sysfried
(aka. thorsten (ät) brightsideofnews.com)
Ähnliche Themen
- Antworten
- 296
- Aufrufe
- 37K
- Antworten
- 264
- Aufrufe
- 68K
- Antworten
- 123
- Aufrufe
- 19K
G
- Antworten
- 1K
- Aufrufe
- 166K