• Techlounge
  • Posts
  • Technologie im Stillstand – Warum neue Hardware nicht immer die beste Wahl ist

Technologie im Stillstand – Warum neue Hardware nicht immer die beste Wahl ist

Jedes Jahr neue CPUs, jedes Jahr neue GPUs. Aber brauchen wir das eigentlich? Ist eine 5 Jahre alte CPU nicht dazu imstande, alle Aufgaben von heute zu erledigen?

Ganz wichtig: Den Podcast koennt ihr hier direkt oben im Browser, aber auch auf diversen Plattformen wie u.a.

Apple - Spotify - Google - Amazon oder als RSS-Feed

anhören und abonnieren. Gerade Apple & Spotify-Abrufe helfen dem Format, denn dort gibt es entsprechende Rankings!

Wenn ihr dann dort noch Techlounge bewerten könntet, ja vielleicht gar einen Feedback-Kommentar hinterlassen würdet… das hilft unserem Format sehr. Danke!

In der Welt der Technologie herrscht seit Jahrzehnten ein Credo: schneller, besser, leistungsfähiger. Kaum ein Jahr vergeht ohne die Präsentation neuer Prozessoren, leistungsstärkerer Smartphones oder effizienterer Laptops. Doch wie sinnvoll ist dieser ewige Innovationsdrang? Wer braucht wirklich jedes Jahr neue Hardware – und wem nutzt sie überhaupt?

Die Antwort fällt ernüchternd aus: Die große Mehrheit der Nutzerinnen und Nutzer profitiert kaum von dieser ständigen Erneuerung. Denn für typische Alltagsanwendungen – Textverarbeitung, E-Mails, Surfen, ein wenig Streaming – reicht selbst Hardware, die zehn Jahre alt ist, oft völlig aus. Ein MacBook mit einem Intel i5-Prozessor von 2014 kann für viele Nutzer immer noch alle relevanten Aufgaben bewältigen – bis das Betriebssystem oder Office-Updates den Support einstellen.

Dabei stellt sich eine grundsätzliche Frage: Warum haben wir uns an ein System gewöhnt, das uns suggeriert, alle 12 oder 24 Monate müsse etwas Neues her? Smartphones mit Octa-Core-Prozessoren und 16 GB RAM, die dann vor allem für Instagram oder WhatsApp genutzt werden, sind längst zur Norm geworden. Es ist, als würde man einen Lamborghini kaufen, um damit ausschließlich in einer Tempo-30-Zone zu fahren.

Technologische Weiterentwicklung hat zweifellos ihre Berechtigung. Doch sie muss nicht im Jahresrhythmus erfolgen. Es gibt gute Gründe, den Innovationszyklus zu entschleunigen – nicht nur aus Nachhaltigkeitsgründen, sondern auch, um Software endlich wieder effizienter zu entwickeln. Derzeit sind Anwendungen oftmals völlig überdimensioniert. Der Adobe Acrobat Reader, einst ein kleines Tool, ist heute ein 680 MB schweres Softwarepaket – für das Anzeigen eines PDFs.

Dass es auch anders geht, zeigt ausgerechnet eine Branche, die wie kaum eine andere auf Leistung und Performance angewiesen ist: Gaming. Konsolen wie die PlayStation 4, die 2013 erschienen ist, erhalten bis heute aktuelle Spiele. Entwicklerinnen und Entwickler holen das Maximum aus der bestehenden Hardware heraus – auch nach über zehn Jahren. Der Schlüssel: Zeit. Zeit, um die Plattform zu verstehen, ihre Grenzen kennenzulernen und effizientere Software zu schreiben. Früher war das Standard: Auf dem Commodore 64 oder dem Amiga entwickelten sich mit der Zeit ganz neue Möglichkeiten, obwohl die Hardware gleich blieb.

Ein weiteres Beispiel sind sogenannte „Demoszenen“: Tech-Demos, die zeigen, was mit jahrzehntealter Hardware noch möglich ist. Wettbewerbe wie „Die beste Demo in 512 KB“ beweisen, dass es auch heute noch kreative und effiziente Lösungen gibt, wenn Entwickler gezwungen sind, sparsam und durchdacht zu arbeiten.

Hinzu kommt der Aspekt der Ressourcen. Ein moderner Chip benötigt bis zu drei Monate Herstellungszeit. Der Energieaufwand ist enorm. Gleichzeitig schlafen viele dieser Chips im Alltag sprichwörtlich – weil ihre Leistung schlicht nicht gefordert wird. CPUs laufen in der Praxis oft mit weniger als 20 Prozent ihrer tatsächlichen Kapazität.

Es wäre also mehr als sinnvoll, diese vorhandene Leistung besser zu nutzen. Software sollte endlich wieder an die vorhandene Hardware angepasst werden, statt umgekehrt. Doch das würde bedeuten, dass Unternehmen und Nutzer ihren Fokus verlagern müssten: weg vom Neugerät, hin zur Langlebigkeit. Ein sinnvoller Ansatz wäre es, statt billiger Mittelklasse-Geräte in kurzen Zyklen lieber etwas mehr Geld in die Hand zu nehmen – für ein hochwertigeres Produkt mit längerem Lebenszyklus.

Auch der nächste Marketingtrick der Industrie zeichnet sich schon ab: Statt klassischer Leistungssteigerung sollen künftig AI-Features und gestapelte CPUs (Stacking) als Verkaufsargument dienen. Doch auch hier gilt: Die meisten Nutzerinnen und Nutzer benötigen diese Funktionen im Alltag schlichtweg nicht.

Ein Ausweg könnte sein, sich an der Gaming-Welt zu orientieren. Dort funktioniert es: lange Support-Zyklen, durchdachte Softwareentwicklung, sinnvolle Nutzung vorhandener Ressourcen. Wenn es gelingt, diesen Spirit auf die Smartphone- und PC-Welt zu übertragen, wäre das nicht nur ein Gewinn für Nachhaltigkeit, sondern auch ein Plädoyer für intelligenteres Design – und vielleicht sogar das Ende der 680-MB-PDF-Reader.

  • Intel Nova Lake-S: Core Ultra 5 mit 8 P-Cores, Ultra 9 mit 52 Kernen, DDR5-8000 dazu
    "Bei Nova Lake-S wird Intel endlich wieder auch das Thema Kerne angehen: Die Ultra 5 bekommen 8 P-Kerne, die Ultra 9 insgesamt sogar 52 Kerne. Letztgenannte Zahl deckt sich dabei mit zuvor bereits genannten Gerüchten, dass Intel bei Nova Lake-S viel mehr Kerne bieten wird, was es angesichts AMDs Anstieg aber auch braucht.

  • Moores Law bald nicht mehr gültig
    “Ein oder zwei Generationen wird die Entwicklung in den Spitzenbereichen noch weitergehen, beispielsweise bei Multicore-Prozessoren. Jedoch merken bereits jetzt Entwickler, dass für Standard-Applikationen nicht die neuesten Chipdesigns notwendig sind”

  • The Death of Moore’s Law: What it means and what might fill the gap going forward
    ”Tesla-Chef Musk soll sich von einem Gehaltspaket im potenziellen Umfang von umgerechnet mehr als 50 Milliarden Euro trennen. Dies ordnete ein US-Gericht an. Es gab damit einem Kleinaktionär Recht, der Musk "ungerechtfertigte Bereicherung" vorwarf.”

Infografik der Woche