Mittwoch, 17. Januar 2007

blöde Programmierer...

nur eine kurze Bemerkung mal nebenbei: Die Programmierer von heute scheinen echt nur noch weiche Birnen zu haben :/ dass das für normale Programme gilt, weiss ja eigentlich jeder (früher waren die Programme bis zu 1 MB gross, jetzt sind sie zum Teil bis zu 4 GB gross - also das 4.000 fache an Größe!!) .. wir haben zwar größere und schnellere Festplatten, aber das ändert nichts daran, dass die Programmierer schlichtweg SCHLECHT programmieren! Wie es mein Dad ausgedrückt hat: auf 286ern, 386ern und 486ern ist sowohl das Betriebssystem als auch sämtliche Programme zehn mal schneller hochgeladen als heutzutage irgendein Programm! (dies ist kein direktes Zitat)

ich möchte aber mal was zum thema internet und web sagen: die meisten websites sind einfach nur grottenschlecht programmiert! ladezeiten für DSL: "akzeptabel" (das heisst noch lange NICHT "gut"!!) .. wenn man sich aber mit ner wählleitung einwählt, dann sind die meisten seiten schlichtweg miserabel!

hey ihr webmaster! was denkt ihr euch eigentlich?! 870 kb quelltext und das exkl. bilder?! in was für einer welt leben wir eigentlich?! als ich damals ordi.de noch per hand programmierte (also bevor es diesen blog hier gab), war meine seite selten größer als 3 oder 7kb.. ergo, der INHALT der seite konnte binnen weniger sekunden (bzw. weniger als EINER sekunde) abgerufen werden.. was da heute für mist programmiert wird, ist einfach nur beschämend.. nur weil die bandbreiten steigen, kümmern sich viele webdesigner und webmaster nicht mehr um die größe ihrer dateien.. traurig, traurig, traurig! :( wenn autohersteller sowas machen würden, hätten wir jetzt alle 500PS autos, die irre geil aussehen, aber alle nur 80 kmh fahren können, weil sie so schwer wären.. einfach nur bescheuert! :P

Tags:

Kommentare:

Willi hat gesagt…

(1)
Zu der Programmgröße: Na sicher, betrachte aber bitte auch den Inhalt. Sicher kann man das gute alte "Zak McKracken" nicht mit einer SAP Serverkomponente vergleichen, die natürlich die Floppy Kapapzität sprengt. Programme werden größer, weil sich auch die Möglichkeiten weiterentwickeln, neue Features integriert werden und
(2)
die Programmierer auch nur das verwenden können, was ihnen an Handwerkszeug mitgegeben wird. Beispiel: .Net. Meiner Meinung nach der größte Schwachsinn überhaupt. Dafür, dass eine Menge Schwachsinn über große Pakete ausgelagert, anderes wiederum direkt mit eincompiliert wird, kann kein Programmierer was. Nicht jeder Compiler bietet optimale Erzeugnisse. Nur die Schuld von den Compilerprogrammierern, der normale Feld-Wald-und-Wiesen-Programmierer hat damit nichts zu tun.
(3)
Es gibt kein Programm, dass 4GB groß ist. Groß sind die Dateikomponenten, nicht das Programm an sich. Wenn viele hochauflösende Videos oder große Maps in Spiele integriert, oder viele bunte Bildchen, Icons, Themes oder auch sonst zur Senkung der allgemeinen Produktivität Bestandteil eines Programmes sind, nun ja, haben da auch eher die Leute von der Konzeption als die Programmierer etwas mit zu tun.
(4)
Es hindert dich keiner daran, auf einen 386er zurückzugreifen, und die entsprechende Software zu benutzen, wenn dich die Ladezeit eher "anmacht". Also mein gut konfiguriertes Gentoo System lädt garantiert schneller :P
(5)
"DIE" Programmierer programmieren schlecht? Mach's besser ;)
Was heißt "schlecht"? Nicht gut genug optimiert? Liegt mit unter an Punkt (2). Nicht immer optimale Algorithmen und performante Einstellungen? Sicher, dass würde die Entwicklungszeit und damit die Kosten hochtreiben, also zu Lasten der Endverbraucher gehen..
Gibt meiner Meinung nach viele gute Software.. Windows zählt jedoch nicht dazu... *g*
(6)
Grottenschlechte Websites? Machst du die Qualität an der Ladezeit fest? Die Ladezeit liegt nicht nur an der Programmierung und deiner Anbindung, sondern auch am Server. Nicht jeder kann sich einen eigenen Webserver oder teure Hostingpakete leisten (oder will einfach nicht).
Für die analoge Einwahl gibt es Tools, die die Daten komprimieren. Und die "normalen" Websites für den alltäglichen Gebrauch sind so optimiert, dass es auch mit "Analog" noch ganz gut geht. Glaub mir, ich spreche aus Erfahrung!!
(7)
870kb Quelltext? Hmm, was hast du denn da ausgegraben? Normal ist das eigentlich nicht, und auf skurile Einzelfälle zu verweisen - nun ja.. Es gibt schlechte Websites wie es schlechte Gedichte, schlechte Musik, schlechte Ratschläge und schlechte Autos gibt.. Wenn du etwas Schlechtes suchst, wirst du es auch finden..
(8)
Wenn Webseiten wie die aktuellen Autos wäre
-müsstest du zur Servicewerkstatt rennen um ein neues Fenster zu öffnen
-müsste nach jeden dritten Webseitenbesuch der Scrollbalken geölt werden
-würde der Computer dabei mehr Strom fressen, als er eigentlich müsste, weil der Hersteller einen Parnervertrag mit EON hätte
(9)
Außerdem sind Pauschalisierungen immer blöd und treffen immer (auch) die Falschen ;)
(10)
Gute Nacht!

ordi hat gesagt…

jaaaahaaa willi, einerseits hast du da vollkommen recht! :) aber ich verallgemeinere ja nicht.. ich sage nicht "alle", sondern "die meisten" und spezifiziere dann webmaster.. das habe ich die tage sehr derbe gemerkt, wo seiten wie gmx oder selbst blogger.com einfach nur schrecklich waren, weil zB blogger jede seite 10 mal laden muss, da jede seite stets im header einen reload auf eine andere seite hat! oder GMX einen mit bildern schlichtweg tötet.. am schlimmsten wirds aber beim MEDIAMARKT und anderen läden (kaufhof, kaufland, etc..) - ich schalte da grundsätzlich alle bilder aus, weil sonst gar nichts mehr geht! :P

und wie du schon sagtest: die in deinem punkt 5 erwähnten fragen, GENAU die meine ich! :) hab mich mit einem anderen programmierer unterhalten - er sah es genauso, noch bevor ich es überhaupt erwähnte ;)