Ein Artikel von zehntausend Wörtern: Künstliche Intelligenz kann dich nicht reich machen.
Der Wandel ist real und zugleich vollkommen vorhersehbar.
Wenn revolutionäre Technologien Wellen von innovative Unternehmen mit Investitionswert hervorbringen, können Unternehmer und Anleger damit Reichtum anhäufen. Ob Eisenbahn, Bessemer - Verfahren, Elektrizität, Verbrennungsmotor oder Mikroprozessor – jede dieser Technologien war wie ein Funke in einer Feuerwerksfabrik, der Jahrzehnte an nachfolgenden Innovationen auslöste, sich in alle Bereiche der Gesellschaft einsickerte und eine neue Generation von Erfindern und Anlegern zu Macht, Einfluss und Reichtum trug.
Dennoch gibt es technologische Innovationen, die zwar eine revolutionäre Wirkung auf die Gesellschaft haben, aber nur schwerlich neuen Reichtum schaffen und stattdessen die bestehende Ordnung festigen. 15 Jahre vor der Entstehung des Mikroprozessors entstand eine andere revolutionäre Technologie – die Containerisierung – in einer "ungünstigen Zeit": Die technologischen Fortschritte waren wie das "Laufen der roten Königin" aus "Alice im Wunderland". Erfinder und Anleger rannten zwar unermüdlich, aber erreichten am Ende keine besseren Ergebnisse.
Jeder, der in "Neues" investiert, muss sich zwei Fragen stellen: Erstens, wie viel Wert kann diese Innovation schaffen? Zweitens, wer kann diesen Wert einfangen? Der Wert der Informationstechnologie - Revolution (ICT) wurde von Start - Ups eingefangen, was Tausende von neuen reichen Gründern, Mitarbeitern und Anlegern hervorgebracht hat. Im Gegensatz dazu war der Wert der Containerisierungsrevolution zu stark verteilt, sodass nur ein Gründer kurzzeitig reich wurde und nur ein Anleger geringfügig profitierte.
Steht die generative Künstliche Intelligenz eher auf der einen oder der anderen Seite? Wird sie der Grundstein für Reichtum in vielen Branchen der Zukunft sein, oder wird der gesamte Anlagebereich einen Nettoverlust erleiden, während nur wenige lokale Gewinner in Nullsummenspielen auftauchen?
Es gibt tatsächlich Wege, mit Investitionen in KI - Ergebnisse zu profitieren, aber dies setzt die Akzeptanz einer Realität voraus: Für Erfinder und Anleger ist die gegenwärtige Zeit immer noch "ungünstig". Die Anbieter von KI - Modellen und Anwendungsunternehmen werden schließlich in der Konkurrenz zu einer Oligopolstellung gelangen, und die Gewinne aus der KI werden an die Kunden, nicht an die Technologieanbieter fließen. Daher fließen die großen Summen von Kapital, die in den Bereich der Künstlichen Intelligenz strömen, in die falsche Richtung. Abgesehen von wenigen glücklichen frühen Anlegern werden es diejenigen sein, die weitsichtig sind und frühzeitig aussteigen, die profitieren können.
Der Mikroprozessor: Vom "Taschenrechnerzubehör" zur Zeitrevolution
1971 erfanden die Ingenieure von Intel den Mikroprozessor, aber sie erkannten zunächst nicht die revolutionäre Natur dieser Technologie – damals wollten sie nur vermeiden, jedes Mal von Grund auf neue Chipsätze für Tischrechner zu entwickeln. Außenstehende jedoch erkannten, dass der Mikroprozessor zur Herstellung von Privatcomputern genutzt werden konnte, und Technologiebegeisterte setzten dies um. Tausende von "Geeks" entdeckten Konfigurationen und Anwendungen, die Intel nie in Erwägung gezogen hatte. Wie die Ökonomin Carlota Perez sagte, führte diese "verteilte, lizenzfreie" Innovation zu einer "großen Entwicklungswelle", die von technologischen Auslöseren ausgelöst, aber von wirtschaftlichen und sozialen Kräften angetrieben wurde[1].
Anfang der 1970er Jahre gab es keine echte Nachfrage nach Privatcomputern, die eher als teure Spielzeuge galten. Aber die frühen Pioniere legten die technologische Grundlage und bildeten Gemeinschaften. Um 1975 hatte der "Sprungfall" der Kosten für Mikroprozessoren den Privatcomputer - Markt machbar gemacht:
- Der Intel 8080 - Chip kostete zunächst 360 US - Dollar (entspricht heute etwa 2300 US - Dollar). Das Unternehmen MITS brachte den Computer "Altair" auf den Markt. Selbst wenn er in Serienabverkauf für 75 US - Dollar (heute etwa 490 US - Dollar) verkauft wurde, war kaum ein Gewinn möglich.
- Als das Unternehmen MOS Technology den 6502 - Chip für 25 US - Dollar (heute etwa 150 US - Dollar) anbot, konnte Steve Wozniak die Herstellungskosten für den Apple - Prototypen tragen.
- Der 6502 - Chip und der ähnlich preisgeführte Zilog Z80 - Chip zwangen Intel zur Preisreduktion. In der aufkommenden Privatcomputer - Gemeinschaft entstanden Unternehmer, und Dutzende von Unternehmen gründeten, jedes mit leicht unterschiedlichen Produkten.
Mit der Mitte der 1970er Jahre konnte niemand vorhersehen, dass Privatcomputer (und ähnliche Produkte wie Automaten, POS - Terminals und Smartphones) die Welt grundlegend verändern würden. Damals behauptete Steve Jobs gegenüber Anlegern, dass "in jeder Familie in Zukunft ein Privatcomputer stehen würde" (was sich später als starke Unterschätzung herausstellte), während andere fragten, "ob es überhaupt einen Bedarf an Privatcomputern gäbe". Bis 1979 erklärte die Apple - Werbung immer noch nicht, "was ein Privatcomputer können kann", sondern fragte stattdessen die Nutzer, "was sie damit anfangen würden"[2]. Etablierte Computerhersteller wie IBM, HP und Digital Equipment Corporation (DEC) hatten kein Interesse an "Produkten, die die Kunden nicht brauchten" – niemand "brauchte" einen Computer, also wurden Privatcomputer nicht "gekauft", sondern "verkauft".
Glänzende Start - Ups wie Apple und Sinclair lockten die Aufmerksamkeit durch Hype. Firmen wie Atari, Commodore und Tandy/RadioShack, die in der Unterhaltungselektronik gegründet waren, brachten ihre Produkte dank starker Vertriebsnetzwerke an potenzielle Kunden.
Die Gemeinsamkeiten technologischer Wellen: Zeit, Geduld und "selbstverstärkende Kreisläufe"
Der Privatcomputer - Markt wuchs zunächst langsam und beschleunigte erst nach der Entstehung von "nützlichen Anwendungen" wie Tabellenkalkulationen im Jahr 1979. Mit zunehmender Anzahl von Anwendungsfällen verringerte das "Beobachten von praktischen Anwendungen" die Unsicherheit auf dem Markt und förderte die Akzeptanz durch mehr Unternehmen, was zu einem "selbstverstärkenden Kreislauf" führte. Jede technologische Welle braucht Zeit, um "Momentum" aufzubauen: Beispielsweise brauchte es die Elektrizität fast 30 Jahre, um die Hälfte der amerikanischen Haushalte zu erreichen, und auch die Verbreitung der Privatcomputer dauerte etwa so lange [3].
Wenn eine technologische Revolution alles verändern will, braucht es zahlreiche Innovationen, Investitionen, Geschichten, Zeit und reine "Hartarbeit" – sie saugt auch alle verfügbaren Mittel und Talente an. Wie in der Wissenschaft mit den "Kuhn'schen Paradigmen", werden alle Technologien, die nicht in das "technologisch - wirtschaftliche Paradigma" dieser Welle passen, zu "Nebenattraktionen"[4].
Der aufkommende Privatcomputer - Markt zog Risikoanleger an, die begonnen haben, hohe Risiken bei neuen Unternehmen einzugehen. Dieser Trend motivierte wiederum mehr Erfinder, Unternehmer und Forscher und zog so noch mehr Spekulativkapital an.
Der ehemalige Branchenriese IBM hingegen war in dieser Zeit relativ schwach: Es glaubte nicht, dass der Privatcomputer langfristig überleben und in seinen Kernmarkt eindringen würde und hatte auch kein Interesse an "aufkommenden kleinen Märkten, die billigere Lösungen suchten".
In hindsight, we view the personal computer pioneers as "prophets," but at the time, almost no one paid attention to this area, except for a few early adopters. Mainstream media such as The New York Times only took this technology seriously in August 1981, after IBM launched its personal computer. Throughout 1976, when Apple was founded, The New York Times mentioned "personal computers" only 4 times[5]. Obviously, only the "crazy, outsiders, rebels, and troublemakers" were interested in this area at that time.
Today compared with then: The "surprise factor" between Artificial Intelligence and personal computers
The most striking difference between the early computer revolution and today's situation is the "surprise factor": In the 1970s, no one was interested in personal computers, while Artificial Intelligence is a topic for the general public in 2025.
Large companies hate "surprises," and "uncertainty" is the best shield for start - ups. In 1979, when IBM entered the personal computer market, Apple might not have survived – it was able to continue competing only thanks to the $100 million it raised through its IPO (Initial Public Offering) in 1980. After the "shake - out" in the industry triggered by IBM, Apple was one of the few remaining competitors [6].
With the establishment of the technology and the unfolding of its potential, there were also innovations in peripheral devices such as software, memory, floppy disk drives, and modems, which reinforced each other: Every advancement put pressure on neighboring technologies. If one part of the system lagged behind, investors would flow into that area. For example, the improvement of memory in personal computers led to a higher demand for complex software, which in turn required more external memory – this prompted venture capitalist Dave Marquardt to invest in the floppy disk drive manufacturer Seagate in 1980. When Seagate went public in 1981, it brought Marquardt a 40 - fold profit. Other investors followed his example, and in the following three years, about $270 million flowed into the industry [7].
Capital also flowed into the underlying infrastructure (fiber - optic networks, chip manufacturing, etc.) to ensure that "capacity would never be a bottleneck." Companies that used the new technology to overtake established firms gained market share. Even conservative competitors recognized that "one would perish without the new technology." The hype eventually developed into an investment bubble phenomenon – the Internet frenzy at the end of the 1990s.
The information technology wave is similar to previous technological waves (such as the investment boom after the canal - building phase in the 1830s and the railway - building phase in the 1920s): People's reactions in each phase predictably trigger the next phase.
After the burst of the Internet bubble, society turned against over - speculation in the industry, and the government received public support to regulate technology companies and investors again and slow down the "frenzy." Companies no longer innovated blindly as in the bubble phase but turned to proven markets; financial experts switched from "speculation" to "investment"; entrepreneurs no longer focused on innovation in basic technology but looked for use cases. The technology continued to develop, but the changes were more "incremental" than "revolutionary."
After the slowdown of changes, companies had the confidence to invest in the long term and began to integrate system components in new ways to create value for a broader user group. Infrastructure such as the oversized fiber - optic networks from the bubble phase provided a large amount of cheap capacity and reduced expansion costs – this was a golden age for entrepreneurs and investors.
The uniqueness of Artificial Intelligence: A revolution without "error tolerance"
In contrast to the Internet, Artificial Intelligence is already being criticized before a "bubble burst" occurs. Although the "reaction" against the technology has been going on for ten years and is now familiar to us, Artificial Intelligence stands in stark contrast to the early days of information technology (when tech giants like Bill Gates, Steve Jobs, and Jeff Bezos were highly regarded).
The world hates change. In the 1980s and 1990s, people "tolerated" the technology because they thought that "one could always go back in case of problems" – this gave early computer innovators "error tolerance." Today, everyone knows that "computers are indispensable," and Artificial Intelligence no longer has a "waiting period" but is regarded as "part of the information technology revolution."
The economist Perez divides each technological wave into four predictable phases: the irruption phase, the frenzy phase, the synergy phase, and the maturity phase, each with its own investment characteristics.