Die meisten unter euch werden sich sicherlich noch daran erinnern, dass die PlayStation 3 seinerzeit Ende 2006 in Nordamerika und Anfang 2007 in Europa ins Rennen geschickt wurde.
Wie die Jungs von IGN unter Berufung auf verschiedene Entwickler berichten, sollte die Konsole ursprünglich schon 2005 veröffentlicht werden. Das Interessante daran: Offenbar hatte Sony zunächst vor, sich voll und ganz auf den neu entwickelten Cell-Chip zu verlassen und bei der Hardware-Architektur der PlayStation 3 gänzlich auf einen Grafikprozessor zu verzichten. Die Arbeiten der GPU sollten demnach ausschließlich von den SPUs gestemmt werden.
Allerdings sollen die involvierten Entwickler Sony schnell darauf hingewiesen haben, dass die Lösung vor allem im Bereich der Performance einige Probleme mit sich bringen wird. Die nicht näher genannte Entwickler-Quelle wird weiter zitiert: „Eine Zeit lang verfügte die PS3 nicht einmal über eine GPU. Alles sollte über die SPUs laufen.“
„Das ICE-Team [Initiative For A Common Engine] bewies den Japanern dann, dass das einfach unmöglich war. Es wäre lächerlich und mit einem Blick auf die Performance eine absolute Katastrophe. Das ist auch der Grund, warum sie sich gegen Ende dazu entschieden haben, doch auf eine GPU zu setzen.“
Weitere Aussagen und Details zu diesem Thema findet ihr hier.
Weitere Meldungen zu Playstation 3.
Diese News im PlayStation Forum diskutieren
(*) Bei Links zu Amazon, Media Markt, Saturn und einigen anderen Händlern handelt es sich in der Regel um Affiliate-Links. Bei einem Einkauf erhalten wir eine kleine Provision, mit der wir die kostenlos nutzbare Seite finanzieren können. Ihr habt dabei keine Nachteile.
Kommentare
Putter
09. Oktober 2013 um 11:07 UhrNa dann haben wir ja Glück doch noch ne PS§ bekommen zu haben die mehr kann als PONG 🙂
Wenn dieser NEws mal Wahrheiten anhaften… Ich bezweifele das es so wie dargestellt war… Vermutlich gab es eine Nachfrage ob nur der Cell ausreichen würde… Diese wurde verneint und die Planung angepasst und Entwicklung dann begonnen. Passt zumindest mit dem Zeitstrahl zusammen…
Muzo62
09. Oktober 2013 um 11:07 Uhrdas ist doch schon längst bekannt das man ursprügnlich statt gpu einen zweiten cell chip einbuaen wollte.
allerdings war nicht das performance das problem sondern das 2 cell chips einfach zu teuer wären und auch zeitlich wäre sie dann wohl viel später gekommen wegen engpässe.
Manhattan
09. Oktober 2013 um 11:31 UhrGenau das, ausserdem wurde der Kompromiss gemacht um die Programmierung etwas zu vereinfachen.
Pitbull Monster
09. Oktober 2013 um 11:33 UhrLeider hat Sony danach auf den falschen GPU gesetzt.
Inkompetenzallergiker
09. Oktober 2013 um 11:40 Uhr@Pitbull Monster
Ja, nvidia hat Sony ganz schön verarscht mit der GPU, die auf der 7000er Geforce basierte, obwohl die 8000er schon fertig in der Schublade lag. Die hatten einfach Angst, dass die PS3 gegenüber den nvidia PC Grafikkarten zu stark wird. Tja nvidia, Pech gehabt, den PS4-Aufrag hat Sony ja bekannterweise an AMD gegeben (nicht nur aus diesem Grund, aber auch)
Hunter93
09. Oktober 2013 um 11:45 UhrDas ist doch alles schon längst bekannt …
HackebeilHarry
09. Oktober 2013 um 11:56 UhrWürde man auf Voxel setzen bräuchte man auch nicht unbedingt eine GPU… Die PS3 mit ihren 8 bzw. 7 Kernen wäre ein wahres Grafikmonster, auch heute noch.
Yolo
09. Oktober 2013 um 12:45 UhrSPU ≠ Kern
Du kannst auch mehrere Kerne haben welche jeweils über mehrere SPU’s verfügen. So z. B. in dem letzten Mac welcher einen Cell 2004 verwendete. Da wurde der 2001 entwickelte Cell nämlich vom Markt genommen weil „Katastrophe“. Selbst Apple die mitentwickelt haben mussten einsehen dass das nichts bringt. Aber für die PS3 06/07 reichts noch. xD
Der Cell ist schneller verschwunden als er gekommen war. Heute findet man den nur noch in dem ein oder anderen Fernseher oder auf Server Blades. Auch in einigen Super Computern ist er noch, dort schultert aber meist ein x86 pro Cell das System, wenn die Dinger mal wieder einknicken.
Und natürlich in der Playstation… dadömm….
@Inkompetenzallergiker
Dir ist schon bewusst dass Nvidia den Auftrag von Sony abgelehnt hat, oder? Auf gut deutsch; für die paar Kröten wollte Nvidia sich nicht mal die Schnürsenkel zubinden.
Inkompetenzallergiker
09. Oktober 2013 um 13:16 Uhr@Yolo
Da stand hier auf play3 aber was anderes. So von wegen „nvidia angepisst, weil Sony immer noch sauer ist“, „nvidia angepisst, dass sich Sony für AMD entschieden hat“, „nvidia zeigt sich als schlechter Verlierer“, etc.
Hast Du ne Quelle für Deine Behauptung? Les ich gerne mal nach!
HackebeilHarry
09. Oktober 2013 um 13:36 Uhr@Yolo
“ Selbst Apple die mitentwickelt haben mussten einsehen dass das nichts bringt“
Hier ging es um Entwicklungskosten, der Cell war und ist ein sehr guter Prozessor. Wenn man einen Prozessor von der Stange nimmt spart man sich Unmengen an Geld, dass war der Hauptgrund warum Apple das Lager gewechselt hat. Warum glaubst du waren die Macs früher immer schneller als PCs….? Glaube kaum weil der Prozessor so schlecht war….
„Dir ist schon bewusst dass Nvidia den Auftrag von Sony abgelehnt hat, oder? Auf gut deutsch; für die paar Kröten wollte Nvidia sich nicht mal die Schnürsenkel zubinden.“
Das war die Aussage von Nvidia… 😉 Preislich gesehen fährt man mit AMD aber zehn mal günstiger, dass ist wiederum der wahre Grund. Du musst schon sehr naiv sein um zu glauben das Nvidia einen Millionen Deal abgeschlagen hätte. Selbst MS hätte ja, wenn der Preis gestimmt hätte, Nvidia GPUs verbaut. Lass uns mal kurz nachrechnen. Sony verkaufte 77.313.472 PS3 Einheiten und MS 77.311.669 360 Konsolen. Das ergibt: 154.625.141 Konsolen! Ich bin mir sicher das sich Nvidia bei dieser Summe jetzt nachträglich gehörig in den Arsch beißt!! 😀
HackebeilHarry
09. Oktober 2013 um 13:38 UhrDie Zahlen habe ich übrigens von hier:
http://derstandard.at/1369362428168/Sechs-Jahre-spaeter-PlayStation-3-ueberholt-Xbox-360
Falls sich jemand wundern sollte….
Venty
09. Oktober 2013 um 13:47 UhrJa die gute Cell Broadband Engine. Hauptproblem damit war wohl, dass die SPUs nicht wie bei heutigen Mehrkernprozessoren fuer generische Aufgaben benutzbar waren. Die beiden PowerPC Kerne selber waren okee, aber auch nicht sonderlich schnell.
Noja, die PS3 war schon recht damals. Eigentlich auch heute noch. Jedenfalls brauch ich im Moment noch keine PS4, was aber vorallem daran liegt, dass mir da noch „mein“ Spiel fehlt. Also der Titel, bei dem ich sage: Und jetzt muss ichs haben!
Kommt hoffentlich noch.
Yolo
09. Oktober 2013 um 13:48 UhrJedes Unternehmen hat ein bestimmtes Maß an Ressourcen. Wenn man diese ausgelastet hat mit lukrativeren Projekten macht es keinen Sinn einen Teil davon einzustellen nur um Low-End-Hardware zu entwickeln.
AMD hingegen, welche sowohl im GPU als auch im CPU-Markt enorm an Boden verloren hatten und immer noch durch die Übernahme von ATI bluten, haben mehr als genug freie Ressourcen um jedes noch so unlukrative Geschäft abzuschließen. Die Alternative wäre gewesen noch mehr Werke zu verkaufen weil sie einfach für nichts mehr genutzt werden. Das Zeug von denen kauft ja kaum noch einer. Da nimmt man was man kriegt.
Du kündigst ja auch nicht deinen Vollzeitjob nur um einen schlechter bezahlten anzunehmen. Du würdest aber den schlecht bezahlten nehmen, bevor du gar nichts hast.
bit ly/1bYSdYC
HackebeilHarry
09. Oktober 2013 um 14:00 Uhr@Yolo
Bleiben wir mal beim Thema Apple:
Für Apple spielt der Computer Markt keine große rolle mehr, da der meiste Umsatz mit dem iPhone und dem iPad erwirtschaftet wird. Darum wurde auch die Entwicklung von eigenen Prozessoren eingestellt. Ich bin mir jetzt nicht zu hundert Prozent sicher, der Gewinn was Apple mit Macs erwirtschaftet ist unter 10%, dass rechnet sich einfach nicht. Warum glaubst du bereitet Apple momentan die eigene Produktion von Smarthphone Chips vor…
Und klar, AMD konnte Sony und MS einfach das besten Angebot unterbreiten.
Yolo
09. Oktober 2013 um 14:28 UhrDie Sache ist ganz einfach. Es ist auch immer das alte Lied. In der Theorie kann das Teil wirklich viel, nur praktisch kommt nichts bei rum.
„Apple handele vorausschauend und die Roadmap von Intel habe mehr zu bieten als die der bisherigen CPU-Lieferanten IBM und Freescale (Motorola)“
„Für Intel sprächen hingegen zwei Vorteile – die hohe Leistung und der geringe Stromverbrauch.“
„Jobs versicherte mit Hilfe eines Diagramms, dass der PowerPC nur 15, ein Intel-Prozessor jedoch 70 Leistungseinheiten pro Watt erreicht.“
bit ly/16Rc51g
HackebeilHarry
09. Oktober 2013 um 15:42 UhrNatürlich hätte Apple den PowerPC weiter entwickeln müssen. Aber wie ich weiter oben bereits erwähnte. Für Apple war es inzwischen günstiger eine Intel CPU zu kaufen, wir sprechen hier von einem Produkt das gerade mal 10% des Gesamtgewinns ausmacht, da macht es mehr Sinn in bereits fertige Bauteile zu investieren. Als der Computer Bereich für Apple noch das lukrativere Geschäft war, sah es eben anders aus, hier lag der Power PC deutlich vor Intel. Guck dir nur mal die Hardware von iPad oder dem iPhone an, momentan der absolute Verkaufsschlager, hier lag Apple mit dem A6X Chip weit vor Nvidia. Seit dem Tegra 4 Chip von Nvidia sieht der Vorsprung vielleicht wieder anders aus… Es ändert sich in der heutigen Zeit einfach viel zu schnell um den Überblick zu bewahren… Jedes Jahr spätestens übertreffen sich die einzelnen Konzerne. Jedenfalls, um beim Thema zu bleiben, ist Apple auf Intel umgestiegen um Produktionskosten für eine kleine Sparte zu sparen. Der Gesamtumsatz mit iPad und iPhone liegt bei ca. 90%, dagegen ist der Computerbereich einfach zu vernachlässigen. Ist traurig, aber Realität….
Hunter93
09. Oktober 2013 um 15:56 Uhr@Yolo:
Es ist einfach nur haarsträubend, was für einen Unsinn du von dir gibst.
Selbstverständlich gilt „SPE = Kern“ und mit Ausnahme des PowerPC-Elements gibt es auch keinerlei Verbindungen zu alten Macs.
An Nvidias Stelle könnte ich einen entgangenen Großauftrag nicht schöner rechtfertigen.
Die Realität dürfte allerdings anders aussehen: Ein ehemaliger AMD-Mitarbeiter (der ironischerweise zu Nvidia gewechselt ist) hat allein den Deal mit Microsoft auf über 3 Milliarden US-Dollar beziffert.
www . gamechup . com/amd-xbox-one-project-cost/
Check008
09. Oktober 2013 um 17:05 UhrWo ist die News? Das ist schon mehr als länger bekannt.
Yolo
09. Oktober 2013 um 17:34 Uhr@Hunter93
Oh wie wundervoll…. das entspricht ja 5,5% von AMD’s sonstigem Umsatz….
Was SPE’s genau sind und warum sie keine Kerne im eigentlichen Sinne sind spare ich mir einfach. Wir mussten ja schon öfters enttäuscht abbrechen weil du den Überblick über Gespräche verlierst. Und das wird jetzt echt zu kompliziert.
@HackebeilHarry
Gut, du sagst es lag an der Kohle, Steve Jobs sagte es liegt an der Unzuverlässigkeit von IBM und der niedrigen Leistung. Aber was soll’s… du hast wahrscheinlich unter’m Schreibtisch gesessen und weißt daher die wahren Gründe die außer dir niemand kennt.
Und ich persönlich würde auch lieber weiter an meinen Tegras arbeiten als an einer Low-End-Konsole. Tegra 5 liefert ja schon PS3-Quali. Und das die Leute x-mal mehr Handies als Konsolen kaufen steht ja wohl außer Frage. Laut Bitkom gamen sogar mehr auf Handies als auf Konsolen. Wen wundert’s noch…..
Hunter93
09. Oktober 2013 um 22:39 Uhr@Yolo:
„Wir mussten ja schon öfters enttäuscht abbrechen weil du den Überblick über Gespräche verlierst.“
Och, ich bitte dich. Was besseres ist dir nicht eingefallen als meine alten Vorwürfe zu recyceln?
Cell ist offiziell ein Multi-Core Design und SPEs sind vollwertige Kerne (können völlig autonom agieren + general purpose instruction set). Da gibt es nicht viel dran zu rütteln.
Ansonsten einfach mal Folie 9 und 12 pauken:
tilander . org/aurora/comp/gdc2009_Tilander_Filippov_SPU.pdf
„das entspricht ja 5,5% von AMD’s sonstigem Umsatz….“
Gerechnet über wie viele Jahre? Zumal AMDs hauseigene Entwicklungskosten für die Dinger minimal sein dürften (Stichwort: „semi-custom“).
Gut möglich, dass in den 3 Mrd. mehr Leistungen beinhaltet sind, aber das reine Chipdesign dürfte kaum Ressourcen verschlungen haben und sollte entsprechend deutlich Gewinn abwerfen.
Kiter
09. Oktober 2013 um 23:32 UhrAbgesehen von dem Umsatz den AMD macht bzw Nvidia entgeht, können weder Intel noch Nvidia eine so potente APU liefern. Der Tegra 4 ist ja im Vergleich ein Witz und Intels Haswell war ja auch eher eine enttäuschung in Sachen Grafik Performance.
Und dass AMD Boden verloren hat im GPU Sektor, sehe ich nicht so.
Im CPU Geschäft eindeutig aber grade die AMD Kampfpreise machens Nvidia doch recht schwer.
Warhammer
09. Oktober 2013 um 23:58 UhrNVidia hätte vermutlich eh abgelehnt, weil sie ihre zur Verfügung stehenden Kapazitäten lieber für Sachen nutzen, in denen mehr Gewinn gemacht wird. AMD hat sich billig kaufen lassen. Das AMD-Hardware in den Konsolen zum Einsatz kommt, finde ich persönlich abschreckend. Und wie man sehen kann scheint die CPU jetzt schon die Konsole zu limitieren, was man an Battlefield 4 erkennen kann.
@Kiter
Haswell ist zumindest zig mal besser als dieser Jaguar-Prozessor. Ich hätte mir für die nächsten Konsolen eher so etwas wie einen i5 oder i7 gewünscht. Stattdessen bekommt man eine (ich nenne es mal) Spar Gen, in welcher der Laptopprozessor unter der Leistung eines i3 ist.
Kiter
10. Oktober 2013 um 00:16 UhrWarhammer wie ich sehe, hast du das Konzept einer Konsole noch immer nicht verstanden, denn wenn HD7870 für dich Laptop Leistungsklasse ist dann gute Nacht.
Haswell war eigentlich nur interessant im ULV Bereich, die Desktop Versionen sind doch kaum eine Verbesserung zu Ivy Bridge.
Außerdem ist für Grafik Performance eine GRAFIKkarte wichtiger als die CPU, wer hätte das gedacht? Durch die APU ist die PS4 auch huma fähig, was den Devs bestimmt vieles einfacher macht.
AMD ist schon die ganz richtige Entscheidung für die Next Gen Konsolen.
Warhammer
10. Oktober 2013 um 00:29 Uhr@Kiter
Dann sollte erst einmal huma genutzt werden. Ob sich dafür viele Entwickler begeistern können und diesen Aufwand betreiben, bezweifle ich mal.
Die GPU der PlayStation 4 ist bisher eher an der HD 7850 dran. Und Laptops mit einer GTX 780M oder vielleicht auch GTX 680M sind da jetzt schon leistungsfähiger.
Natürlich ist die Grafikkarte noch wichtiger, doch auch diese Lösung würde ich als unzureichend für eine Next Generation-Konsole bezeichnen. Eine Grafikkarte für 120€ ist eher etwas für Sparer. Für die nächsten sechs Jahre ist man damit nicht sehr gut gerüstet.
Selbst wenn Haswell keine große Steigerung ist, ist dies leistungstechnisch immer noch Jahre vor den Jaguar-Prozessor.
AMD hat nicht ohne Grund solch ein Image-Problem.
Kiter
10. Oktober 2013 um 01:13 UhrWelches „Image-problem“? Zugegeben bei den CPUs ist AMD nicht gut aufgestellt, aber gegen Nvidia liefern sie sich doch ein sehr gutes Kopf an Kopf Rennen. Grade mit der neuen R9 290x wartet da doch ein starker GTX780/Titan Konkurrent auf. Und mit Mantle gehehen AMD/DICE einen guten Weg.
Der Punkt ist ja der, dass huma nicht zu nutzen mehr Aufwand wäre!
Ist ja schließlich das Konzept von huma…
Und wieviel kostet ein laptop der eine gtx780m/680m drin hat und wie lange wird man damit zocken können geschweige denn die Temps und Load Lautstärke der Lüfter.
Wenn man bedenkt was die Entwickler aus einer 7000er Nvidia GPU rausholen, kann man gespannt sein auf kommende next gen Titel.
Launch/Launch window Spiele werden noch nicht an die Grenzen der Next Gen Konsolen gehen, wegen cross Gen wie WatchDogs/AC4 und wegen sehr knappen Deadlines, da die Spiele nunmal zum Konsolen Launch erscheinen MÜSSEN.
Bei Konsolen kommt es halt am meisten auf die Optimierung an. Der Vorteil einer Konsole ist eben dass Software maßgeschneidert auf Hardware wird. Deshalb ist Konsolen Hardware/Leistung nicht Vergleichbar mit PC Hardware/Leistung. Und diesen Aspekt scheinst du bis heute nicht begriffen zu haben wenn man deine Kommentare liest.
Warhammer
10. Oktober 2013 um 02:05 Uhr@Kiter
Das merkwürdige und das habe ich hier schon oft genug bewiesen und werde es nicht wieder tun (zahlreiche Links mit Grafikkarten Tests reichen wohl immer noch nicht), dass viele Spiele mit einer 7800 GTX besser als auf einer PlayStation 3 laufen. An die Qualität einer 8800 GTX kommen PlayStation 3-Spiele nicht ansatzweise heran. Ich habe erst letzte Woche mal bei einen Kollegen Crysis 2 auf dieser uralten Grafikkarte getestet, und verglichen damit sind die PlayStation 3-Spiele technisch absolut chancenlos in jeder Hinsicht. Wo bleibt also die Optimierung? Du braucht auch nicht mit Gegenargumenten zu kommen. Ich habe mich abgesichert und sogar sehr viele Bilder gemacht.
Crysis 2 – eigene Screenshots auf uralt PC
– img5.fotos-hochladen.net/uploads/190dx2e7m3cn.jpg
– img5.fotos-hochladen.net/uploads/257h4npxz6vl.jpg
The Last of Us – Eurogamer (angebliche Konsolen-Grafikreferenz)
– images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/8/7.bmp.jpg
– images.eurogamer.net/2013/articles//a/1/5/9/0/9/6/8/4.bmp.jpg/EG11/resize/1280x-1
Wenn ich mir das so ansehe sieht Crysis 2 überall mindestens zwei Klassen besser aus. Trotz eines für heutige Verhältnisse Gammel-PCs. Wo bleibt die Optimierung? Wieso kann die Konsole es nicht mit einen PC aus den gleichen Zeitraum aufnehmen?