DOSferatu hat geschrieben:Ich bin der Ansicht, daß zu "DOS" Zeiten, bis 486er oder meinetwegen Pentium die Systemleistung WIRKLICH noch "ausgereizt" wurde - also sprich: Alles nutzen, was da ist, ABER es so nutzen, daß es für den Spieler/User zum Vorteil gereicht!
Der Unterschied heutzutage (und das meine ich mit "ressourcenfressend") ist, daß die Ressourcen VERSCHWENDED werden, d.h. daß viel einfach VERSCHENKT wird, wenn man in irgendwelchen systemfernen Skripten rummacht oder alles durch eine Handvoll (oder mehr) Abstraktionslevel schickt. Die ganze Rechenleistung geht verloren.
Ja stimmt, das sollte man unterscheiden. Auch wenn für die Virtualisierung ein wenig Hardware-Unterstützung in moderne CPUs eingebaut wurde, wird hier die Hauptlast für so etwas durch Software geleistet, womit der eigentlichen Anwendung Rechenleistung entzogen wird.
Rechner mit 3 Ghz und es ruckelt trotzdem selbst bei niedriger Auflösung und vorhandener 3D-Karte. Und aufm C64 programmierten die Leute flüssiges Scrolling (und der läuft mit ca. 1 MHz). Und zu DOS-Zeiten wurden Grafikdemos gezaubert, die viele Dinge OHNE 3D-Karte in 3D dargestellt haben. Und Quake 1 ist echtes 3D und läuft aufm 486er vernünftig.
Beim 486er gab es aber auch noch nicht so viele Unterschiede was die Verarbeitungs-Geschwindigkeit betrifft.
Es gab nur ein paar Intel 486er, 486er von AMD und von Cyrix. Alles schön übersichtlich, die Unterschiede waren bekannt.
Bei noch neueren CPUs kamen neue Verarbeitung-Einheiten, wie z.B. MMX dazu und ab diesen Zeitpunkt gab es auch schon Unterschiede zwischen den Modelltypen einer jeden Baureihe. So das nicht nur Unterschiede bei den Herstellern unter sich zu finden waren, sonder die Baureihen jedes einzelnen unterschieden sich in der Ausführung der Befehle.
Aus der Sicht eines Programmierers kann man entweder für eine Aufgabe eine einzige Routine für alle CPU-Typen mit einem einzigen songenannten blended Code verwenden, oder mit Rücksicht auf die Eigenheiten jedes einzelnen CPU-Typs speziel dafür entwickelte Routinen verwenden, womit eine sehr zeitausfendige Messungen der verschiedenen Ausführungsgeschwindikeiter der jeweiligen Routinen dann uns dabei helfen kann diese für jeden einzelnen CPU-Typ zu optimieren und wir so für eine Aufgabe mehrere verschiedene Versionen für die verschieden Typen entwickeln.
Um es noch mal deutlich zu machen auf AMD k5, K6, Athlon und INtEL Pentium 1,2,3 wird eine Kombination von MOV- und MOV-Befehl schneller ausgeführt, als eine Kombination von PUSH- und POP-Befehl. Beim Pentium 4 und Nachfolger und auch bei den neueren Modellen von AMD ist es andersherum. Bei der Performance von FPU und MMX-Befehle gibt es ähnliche Unterschiede von Typ zu Typ und Hersteller zu Hersteller. Mit 3DNOW und XMM/SSE kommen noch weitere solcher Unterschiede dazu. Es wurde immer unübersichtlicher. Bei mehr oder weniger second level Cache in der CPU, oder auf dem Mainboard verbaut gabe es auch schon Unterschiede. Aber auch wenn jeder einzelne Unterschied für sich alleine gar nicht so zum tragen kommt, es ist auch schon die Vielzahl an neuen Verarbeitungseinheiten und internen Optimierungen der einzelnen CPU-Modelle womit schon Unterschiede anzutreffen sind.
Und heutzutage wird gewaltige Technik und Wattzahlen auf ein Projekt geschleudert und am Ende macht es oft auch nichts anderes als es "damals"[tm] auch schon ging.
Das ist doch schon traurig mit anzusehen.
Irgendwas kann da nicht stimmen...
Masse statt Klassse. Billig ist geil geworden und die Nachfrage nach qualitätiv hochwerrtigen Produkten hat abgenommen.
Es wird sich auch mit mangelhafter Ware zufrieden gegeben, es könnte ja sein das anderfalls sonst ein Mangel bestünde.
Kaufentscheidungen werden auf mannigfalte Weise verändert, wobei Suggestionen gezielt eingesetzt werden aus deren Wirkung man sich nie wirklich entziehen kann.
Ich weiß natürlich daß "es dem Programmierer/Entwickler einfach machen" die Anforderungen an die Fähigkeiten der Entwickler verringert und auch die Entwicklungszeit für Projekte herabsetzt - was beides die Gewinnspanne der entsprechenden Firmen erhöht. Aber was interessiert mich, ob irgendein Bonze abends in seinem Geldspeicher baden gehen kann...
Solche Gedanken mal aufgegriffen versuche ich immer wieder Rahmenbedingungen zu projezieren, die es uns ermöglichen können Bedingenen zu erschaffen unsere Arbeit die wir in die Entwicklung und die Produktion von Massenartikeln und auch die verwendeten Resourcen aufwenden zweckmäßiger für unsere Gemeinschaft einzusetzen.
So wie es Heute gestaltet, organisiert und verteilt ist verhungern über eine Millarde an Menschen weltweit.
Auf mich hat das einen sehr bitteren Beigeschmack und ich fühle mich mit solchen Gedanken gleichzeitig sehr miserabel und auch im weiten Umfeld hilflos....... es ist demütigend.
Aber das ist eben der Unterschied zwischen "vorhandene Ressourcen sinnvoll einsetzend" und "ressourcenfressend". Oder anders ausgedrückt:
"Damals"[tm] sah ich Tools, Spiele und Demos auf 386/486 oder 8bit/16bit Konsolen und dachte: Wow! Unglaublich, was die Leute auf diesen Maschinen hinkriegen!
Ich denke auch bei den Entwicklern gab es war schon so ein Enthusiasmus/Schwärmerei die Möglichkeiten auszuprobieren.
Und heute sehe ich Tools, Spiele und Demos auf "modernen Rechnern" und denke:
Was? Diese ganze Rechenleistung und diese brutale Peripherie und die kriegen damit nicht mehr hin als DAS?
Ingesamt schon sehr traurig.
Man kann aber auch sagen weil die Entwicklung der CPUs doch zu langsam voranschreitet, so werden ja schon manche Dinge auf der GPU berechnet. So viel Leistung bieten die aktuellen CPUs ja dann wohl doch noch nicht.
Dirk