„Warum Brasilien ökonomisch scheitert“ von Prof. Dr. Gunnar Heinsohn

fredmund.malik am Montag, 03.10.2016 um 12:51 Uhr
« Vorheriger Artikel / Übersicht / Nächster Artikel »

Heinsohn analysiert in seinem aktuellen Artikel die Gründe für das ökonomische Scheitern Brasiliens:

„Seinerzeit wurden die Bric-Staaten als die neuen Hoffnungsträger der Weltwirtschaft gehandelt. Zumindest für Brasilien trifft das nicht mehr zu, vor allem China hat das einstige Co-Schwellenland ökonomisch abgehängt.

Unter 1000 brasilianischen Jugendlichen gibt es bei Pisa 2012 nur acht (!) mit guten oder sehr guten Mathematikleistungen. Dagegen wurden 671 als schlechter denn mangelhaft bewertet. Immerhin geben 85 Prozent zu Protokoll, in der Schule glücklich zu sein.

Suchen Experten nach Gründen, warum Brasiliens Bruttoinlandsprodukt 2015 um knapp vier Prozent und bis Mitte 2016 um weitere sechs Prozent absinkt, dann nennen sie den Rückgang der Rohstoffpreise, die Korruption bis in die Spitzen selbst der Arbeiterpartei, die Aufblähung konsumtiver Staatsausgaben für die Armen sowie den Verzicht auf das Ansammeln von Reserven während der Hochkonjunktur.

Die Kompetenz der Brasilianer wird so gut wie niemals thematisiert. Präsidentin Dilma Rousseff fügt eine „politische Krise“ durch ihren unfreiwilligen Rücktritt am 15. Dezember 2015 als weiteren Krisenfaktor hinzu. Der beschleunigte den Anstieg der Arbeitslosigkeit von 6,2 Prozent Ende 2013 auf 11,3 Prozent im Juni 2016. Nicht einmal die Kürzung der Monatslöhne um vier Prozent seit Anfang 2015 auf durchschnittlich gerade noch 1,962 Reais (547 US-Dollars) kann die Entlassungen verlangsamen.

Niemand ist glücklich über bestechliche Beamte, instabile Verhältnisse oder staatliche Verschwender. Doch private Firmen berührt das nur indirekt. Sie müssen ihr Geschäft durch permanente Innovationen global verteidigen und rechnen wöchentlich oder sogar täglich ab. Eine einfache Industrie für Küchenherde, Kühlschränke oder Lieferwagen galt lange als Beweis für Brasiliens unaufhaltsamen Aufstieg. Die aber ist mittlerweile weitgehend ausgeschaltet, weil auf den Weltmärkten Besseres preiswerter angeboten wird.“

Kompletter Artikel auf derStandard.at

 

 

 

Antworten

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

 Verbleibende Zeichen

49 Kommentare

  1. NJPuls

    Sehr geehrter Herr Dr. Heinsohn,

    als ich Ihre Fragestellung las „Wie soll es für Brasilien jemals aufwärtsgehen, wenn selbst westliche Topnationen gegenüber den Ostasiaten wanken?“, erinnerte ich mich an ein brasilianisches Beispielunternehmen, das zeigen könnte, wie es geht:

    https://de.wikipedia.org/wiki/Das_Semco_System

    https://www.brandeins.de/archiv/2010/nachfolge/mach-es-zu-deinem-projekt/

    Es stellt sich die Frage, wie das Unternehmen heute positioniert ist. Wenn es heute noch existiert bzw. prosperiert, könnten sich die Brasilianer ein Beispiel daran nehmen. Auf der Website http://www.semco.com.br/en/ wird um Investoren für Brasilien geworben. Das ist nicht wirklich lukrativ, wenn man Ihren Artikel liest.

    Viele Grüße aus dem Norden

    • Gunnar Heinsohn

      Brasiliens starke Wachstumsjahre währten von 1968-1980 (https://knoema.com/mhrzolg/gdp-statistics-from-the-world-bank). Danach setzt nicht nur die chinesische Konkurrenz ein, sondern auch das Hightech-Zeitalter mit Informationstechnologie, Automatisierung etc. nimmt Fahrt auf. Wo die dafür benötigten Köpfe knapp sind, wird es seitdem stetig schwieriger. Das schliesst – bei einem 200-Millionenland – lokale Top-Cluster nicht aus, reicht aber nicht für das Anheben in der Breite. Am berühmtesten wird Embraer (Flugzeuge ab 1969), das 2016 die Häfte seines Börsenwerts verliert. Gunnar Heinsohn

      • Wolfgang Pfeifenberger

        Embraer hat noch ganz gute Verkaufszahlen und stürzt sich gerade auf den Iran. Wer tummelt sich auch nicht alles in dem Segment der mittleren Verkehrsjets und der Business-Jets? Sogar die Schweiz steigt mit der Pilatus PC 24 ein. Optisch sind die meisten Maschinen kaum mehr zu unterscheiden. Die Flugzeugtechnik ist wie die Internettechnologie an einer magischen Grenze angelangt. Man redet zwar viel von Innovation, doch praktisch ist längst Stagnation eingetreten. Universelle Technologien, wie das Smartphone kannibalisieren beispielsweise gegenwärtig das spezielle Segment der Consumer-Kameras. Die Dynamik geht schon mehr nach innen als nach außen. Ich tue mich deshalb schwer mit der Vorstellung, dass wir überhaupt noch so viele innovative und kreative Köpfe brauchen. Wenn man annimmt, dass die Loslösung von einem bis dato begrenzenden Kontext der Kern des Fortschritts ist, dann kann man die Grenzlinien dort ziehen, wo eine mehr an Distanz keinen nennenswerten Zuwachs an Nutzen mehr bringt. Pilatus hat es übrigens sehr clever angestellt. Sie setzen nicht auf pure Performance (= höher, schneller, weiter), sondern bauen einen Jet, der mit kurzen Lande- und Startbahnen auskommt.

  2. Wolfgang Pfeifenberger

    Es gibt da ein grundsätzliches Problem, das sehr eng mit dem von Ihnen definierten Kriegsindex zusammenhängt. Eine immer stärker werdende Automatisierung lässt Stellen in allen Bereichen der Industrie, des Dienstleistungsgewerbes und selbst der Banken verschwinden. Dadurch können einige wenige hochentwickelte Industriestandorte sehr bald den Gesamtbedarf der Erde an Industrieprodukten decken. Außerdem sind Innovationspotentiale für Technologie endlich, was gegenwärtig im Smartphonebereich, zumindest im Hardwaresektor beobachtet werden kann. Die dynamische Verteidigung der Zahlungsfähigkeit bricht so auf breiter Front zusammen und es kommt zu einer eventuell sehr abrupten deflationären Kontraktion. Dann werden junge Männer auch als einzige Söhne kriegsfähig, weil sie sonst keine gesellschaftlichen Positionen mehr einnehmen können.

  3. Stefan Ludwig

    Sehr geehrter Herr Professor Malik,

    ich habe zwei Artikel auf Welt-N24-Online gelesen.
    Ein Interview mit dem Firmenchef von Nvidia (PC-Grafikkarten-Chips) Jen-Hsun Huang.
    Seine Strategie hört sich sehr nach Peter F. Drucker kreativer Zerstörer usw. an.

    Und einen Artikel über „KI“-Software die in Daten Muster erkennen soll um daraus Handlungsempfehlungen
    für die Betriebsoptimierung abzuleiten. Jetzt Frage ich mich ob das Kybernetik durch die Hintertür „KI“ ist.

    Könnte es sein, dass diese Software-Algorithmen bei immer weiterer Entwicklung und Vernetzung irgendwann
    zu sehr komplexen „Handlungsempfehlungen“ in der Art „Firmensteuerungsstruktur folgendermaßen umbauen;…….“ kommen?

    Wenn sie es tun bin ich überzeugt davon, dass dabei die Grundprinzipien des Viable System Models herauskommen.
    Angepasst an das jeweilige System.

    • F. Malik

      Lieber Herr Ludwig
      Danke für Ihr sehr interessantes Posting.
      Der Ausdruck „kreative Zerstörung“ stammt von Joseph Schumpeter, dem österreichischen Ökonomen aus den 1940er Jahren. Aber Drucker hat ihn gut gekannt, und vertrat ähnliche Auffassungen.
      Die Künstliche Intelligenz ist ein direkter Ableger der Kybernetik und wurde schon Ende der 1940er Jahren dort diskutiert.

      Ja, es ist möglich, dass solche Empfehlungen von Programmen kommen und es ist sogar wahrscheinlich. Es wird dann darauf ankommen, was die Nutzer damit machen.
      Eine Zeitlang wird es so sein, wie wenn Steuerberater, Anwälte und Consultants ein Gutachten machen.

      Das Viable System kann dabei recht gut herauskommen, aber wir haben es ja schon. Die Outputs werden Real Time Lösungen sein.
      Es ist auch denkbar, dass ethische Prinzipien Teile der Programmierung sind, ja sogar, dass die Programme selbst ethische Empfehlungen geben können. Denn zwischen „gut“ und „böse“ zu unterscheiden (nur als Beispiel) ist nicht so schwierig.

    • Stefan Ludwig

      Ich habe sehr gemischte Gefühle bei dieser Entwicklung. Man überlässt den Maschinen immer komplexere Entscheidungen
      ohne das Zustandekommen der Entscheidungen im einzelnen nachvollziehen zu können.
      Diese Software-Algorithmen werden wohl kaum ethische Maßstäbe in ihrem Mittelpunkt stehen haben.
      Ich frage mich ob sie das aus ihrem anwachsenden WIssen und ihrer „Intelligenz“
      heraus ausreichend von alleine entwickeln werden.

      Ich fände es interessant wenn Sie oder auch Prof. Gunnar Heinsohn zu diesen beiden Themenkomplexen
      Stellung beziehen würden.

      Hier die Links zu den Artikeln:
      https://www.welt.de/wirtschaft/article158722704/Es-sind-keine-physischen-Grenzen-in-Sicht.html

      https://www.welt.de/wirtschaft/article154838727/Das-neue-Technik-Zeitalter-folgt-dem-Prinzip-Hundefoto.html

      mit freundlichen Grüßen

      Stefan Ludwig

      P.S.: Anmerkung für Herrn Professor Malik:
      Wenn sie finden mein Beitrag passt besser in einen anderen Thread verschieben sie ihn dorthin.

      • Thomas Moroder

        Die Methoden und modernen neuronalen Netze wie z.B. LSTM, welche jetzt in der KI zum Einsatz kommen wurden vor ca. 10-15 Jahren weitestgehend in Deutschland und der Schweiz (siehe z.B. Prof. Schmidhuber und Prof. Hochreiter) erforscht und entwickelt – ironisch nachzudenken, dass diese Grundlagenforschung durch den europäischen Steuerzahler finanziert wurde, jetzt im grossen Stil von amerikanischen und chinesischen Unternehmen kommerziell erfolgreich eingesetzt wird.

        Dass die NN jetzt so beliebt sind, hängt damit zusammen, dass durch die GPUs endlich mehr Rechenkapazität vorhanden ist, neu sind diese aber nicht.

        Leichte Sorgen muss man sich derzeit – wenn überhaupt – wohl nur bei Google machen, die einzige Firma mit den finanziellen Ressourcen, Know-How, der Rechenkapazität und riesigem Datenpool.

        Es gibt schon einige Methoden, um z.B. graphisch darzustellen, was ein trainiertes NN macht, aber grundsätzlich stimmt was Sie sagen: man kann nicht ohne weiteres feststellen, wie ein NN zu einem bestimmten Resultat im einzelnen kommt und noch wichtiger, derzeit kann ein NN auch nicht erklären, was es macht 🙂

        Den Optimismus bzgl. „Hyper-Moore“ teile ich nicht (Marketing!).

        • F. Malik

          Hallo Herr Moroder.
          In einem Aufsatz „Computation in Neural Nets“ , 1967, schreibt einer der Pioniere der Kybernetik, Heinz von Foerster, folgendes:

          „Ten neurons can be interconnected in precisely 1,267,650,500,228,229,401,703,205,376 different ways. This count excludes the various ways in which each particular neuron may react to its afferent stimuli.
          Nicht gerade das, was man eine kleine Zahl nennt. Und weit mehr als das, was man eine grosse Zahl nennt… (Schreibfehler habe ich nicht gemacht.)
          Er schreibt dann weiter: “ Considering this fact, it will be appreciated that today we do not yet possess a general theory of neural nets of even modest complexity.“
          Wieviel Fortschritt wurde seit 1967 gemacht?

          • Thomas Moroder

            Es ist eine grosse Zahl, aber diese lässt sich enorm komprimieren wenn man die Kolmogorow-Komplexität zu Grunde legt, d.h. ich kann die gesamten 1,267,650,500,228,229,401,703,205,376 Konfigurationen der 10 Neuronen durch ein relativ kurzes Programm erzeugen (Pseudo-Code: Enumeriere alle möglichen Konfigurationen von 10 Neuronen) – dieses Programm stellt also alle Konfigurationen dar. In diesem Sinne ist die Anzahl der möglichen Konfigurationen extrem hoch, aber nicht die Algorithmische Komplexität, weil ich diese extrem komprimieren kann.

            Es gib einige Fortschritte theoretischer Natur seit 1967, die v.a. vor 10-15 Jahren gemacht wurden (Deep Learning, RNNs, LSTM, Gödel-Machine, Meta-Learner, Universal Learning Algorithms) und jetzt z.T. nützlich geworden sind. Es gibt also durchaus Klassifizierungen und auch optimale Lern- und Such-Methoden.

            Soweit ich weiss, gibt es noch keine allgemeine/generelle Theorie der neuronalen Netze, aber man kann trotzdem sehr interessante Lösungen damit finden. Auch in der Physik gibt es noch keine ToE gibt, trotzdem kann man mit den bestehenden Modellen gute Resultate erzielen.

            • F. Malik

              Es geht hierbei nicht um die Frage, ob sich die Zahl komprimieren lässt oder ob
              und wie man sie erzeugen kann, denn es ist klar, dass man dies mit einem modernen Rechner
              leicht tun kann. Wir sprechen hier von Neuronen, und daher geht es um die Frage, welche Zustände sie als Schaltelemente im Gehirn annehmen können und wie damit andere Neuronen beeinflusst werden, die wieder zurückwirken, und summa summarum was daraus folgt für das Funktionieren eines Gehirnes. Nach alten Schätzungen hat das menschliche Gehirn rudn 10 Mia Neuronen, nach neueren Schätzungen sollen es 100 Mia oder sogar noch mehr sein.

              • A.I.

                Da haben Sie Recht.

                Eine wichtige Frage ist aber, ob zwei unterschiedliche Mikrozustände eines NN auch zwei unterschiedliche semantische Bedeutungen haben.

                Das muss nicht unbedingt sein.

                Aus der statistischen Physik kennt man das Phänomen, dass ein bestimmter Makrozustand durch sehr viele verschiedene Mikrozustände repräsentiert werden kann, ohne dass der Beobachter einen Unterschied feststellen könnte.

                Es war eine überragende intellektuelle Leistung Boltzmanns, dies erkannt und nachgewiesen zu haben, zu einer Zeit, wo Atome noch nicht zweifelsfrei nachgewiesen worden sind und Positivisten wie Ernst Mach ihn öffentlich verspottet haben, was ihm sehr zusetzte.

                Will sagen, trotz ungeheurer mikroskopischer Komplexität gelangen wir zu einer überschaubaren Menge an Makrozuständen, die für die physikalische Realität ausschlaggebend sind.

                Ich frage mich, ob ähnliches für neuronale Netze gelten könnte.

                • F. Malik

                  Ganz einverstanden. Sie verstehen auch, warum ich Kybernetiker mag.
                  Zum Beispiel befassen sie sich mit äquifinalen Systemen, mit rekusiv erzeugten Invarianten
                  usw. Einfacher gesagt: Alle Wege führen nach Rom ..

              • Thomas Moroder

                Ja, da stimme ich Ihnen durchaus zu, will aber mit einem Missverständnis aufräumen: Neuronale Netze sind nur „lose“ an das menschliche Gehirn inspiriert (z.B. Backpropagation-Algorithmus, der bei NN angewandt wird, so im menschlichen Gehirn aber nicht stattfindet – für Gegenargumente siehe z.B. http://sms.cam.ac.uk/media/2017973?format=mpeg4&quality=360p ab der 40. Minute). Das Ziel welches mit NN verfolgt wird, ist ja Intelligenz und die Fähigkeit zu lernen (durch Training), nicht primär perfekt das menschliche Gehirn zu imitieren.

                Ich werde den Aufsatz von Heinz von Foerster (sobald ich die Zeit dafür finde) nochmals durchlesen, hatte diesen aber so verstanden, dass es ihm darum ging, „Constraints“ zu finden, also Regeln welche die schiere Anzahl der Möglichkeiten sinnvoll einschränken und um das Konzept von Speicher/“memory“.

                Der Speicher in ANNs war bis zuletzt schon „computational“, aber Google Deepmind hat vor kurzem interessante Neuigkeiten aufgezeigt:
                http://www.nature.com/articles/nature20101.epdf

                Bzgl. Constraints habe ich einiges in meinem letzten Post aufgeführt (und auch im Aufsatz stehen einige).

                Post geht weiter..

                • F. Malik

                  Das ist einer der Punkte, den ich seit langem wichtig finde: Neuronale Netze und Gehirne sind verschieden. Ihre Links konnte ich zwar noch nicht anschauen, werde das aber so bald wie möglich tun. Heinz von Foerster ging es u. a. um Constraints, das ist richtig, und um memory without storage.

                • Thomas Moroder

                  Weiter als Constraint aufzuführen wäre, dass NN effizienter ablaufen müssten (in unserem Gehirn werden nur möglichst wenige, aber wichtige und „richtige“ Neuronen aktiviert, statt alle; es müsste relativ viele kurze Verbindungen und wenige lange Verbindungen geben, um die Latenz bzw. die Kosten der Kommunikation zu minimieren).

                  Zu den angeführten Zahlen bzgl. menschlichem Gehirn: Ca. 100 Mia Neuronen, ca. 100 Mia Gliazellen und ca. 100 Billionen Synapsen; einige davon sind Input (Audio, Video, Geruch etc.), einige Output (Muskeln), aber die meisten sind dazwischen und dort findet auch das Denken statt. Einige Wissenschaftler&Futuristen glauben, dass wir in 25-35 Jahren die notwendige Rechenpower haben werden, um ein RNN (LSTM o.ä.) in der Grösse eines menschlichen Gehirns zu betreiben. Die Grössenordnung ist machbar, auch stösst man an keine prinzipiellen Grenzen (Bremermann’s Limit o.ä.).

                  Wie beschrieben glaube ich nicht daran, dass die notwendige Rechenkapazität so früh zur Verfügung steht (Moore’s Law gilt nicht länger, schon gar nicht in der originären Form).

                  Auch relativ primitive AIs können nützlich sein, weil sie mehr Informationen in Echtzeit verabeiten als Biobrains 🙂

                  • F. Malik

                    Das grosse Varietätspotential von Gehirnen wird von diesen funktionell anders genutzt, als wir die bisherige Technologie nutzen. So gesehen haben wir uns in der Technik und auch in den Neurowissenschaften vom Funktionieren des Gehirns eher weiter weg als näher hin bewegt. Wolf Singer, der Doyen der deutschen Hirnforscher, sagte vor ein paar Jahren in einer Scobel-Sendung sinngemäss, die Hirnforschung sei seit den 1990er Jahren einen Irrweg gegangen. Mir scheint, dass McCulloch zu seiner Zeit bereits mehr vom Neuro-Funktionieren verstanden hat, als wir das heute tun. Zumindest müssen Algorithmen mit Heuristiken kombiniert werden, denn mehr Geschwindigkeit führt nicht automatisch zu mehr Erhellung von Ungewissheit.
                    Interessant, was Sie bezüglich Bremermann andeuten. Wo kann ich das nachlesen?

      • A.I.

        In meinem neuen Unternehmen mache ich mich ebenfalls daran, die Potentiale der KI auszuloten und habe bereits mehrere Problemstellungen identifiziert, in denen der Einsatz von KI sehr vielversprechend erscheint.

        Ethische Bedenken habe ich nicht.

        Wieviele Zivilisten sind durch fälschliche Bombardierungen zu Tode gekommen?

        Wieviele Soldaten sind durch das irrtümliche Feuer der eigenen Kameraden umgekommen?

        Wieviele Verkehrstote gehen auf das Konto von Fahrern, die vom Sekundenschlaf übermannt wurden? Die unachtsam waren?

        Wieviele falsche Gelenke wurden operiert, falsche Organe einer Krebsbehandlung entfernt, weil die OP-Mannschaft rechts und links verwechselte?

        Wieviele falsche medizinische Therapien wurden durchgeführt, weil ein Arzt nicht alle in Frage kommenden Erkrankungen kannte, was aber ein KI-System leisten kann?

        Es wird immer so getan, als mache der Mensch keine Fehler.

        Technik funktioniert naturgesetzlich, und wenn etwas Katastrophales passiert, dann deswegen, weil der menschliche Konstrukteur der Technik nicht alles bedacht hat, oder weil sie nicht instand gehalten oder falsch bedient wurde.

        • Thomas Moroder

          Genau – was oft auch übersehen wird ist, dass eine KI schlicht Zugriff auf mehr Daten und Informationen hat, zumindest wenn die Antworten in Echtzeit oder kurzem Zeitraum erfolgen soll. Wenn in einem selbstfahrenden Auto in Zukunft 8 Onboard-Kameras in versch. Richtungen und Winkeln, dazu noch Radar- und GPS-Daten etc. in Echtzeit verarbeitet werden, dann hat der Autopilot einfach mehr Informationen zur Verfügung als ein Mensch am Steuer. In anderen Situationen kann ein KI-System ein ausgezeichnetes Empfehlungs-System sein.

  4. Christian Pirker

    Ich hatte vor einigen Jahren in Brasilien zu tun. Damals sind mir einerseits die hohen Zölle aufgefallen und andererseits eine gewisse Abgeschiedenheit in der technischen Entwicklung, die aber auch interessante Blüten gezeigt hat. So etwa die FLEX-iblen Motoren, die beliebige Mischungen aus Alkohol und Benzin schlucken konnten. Mehrheitlich wurde Alkohol als Treibstoff verwendet, auch weil er für die Konsumenten wesentlich billiger war. Mein Fahrer und Dolmetscher hat mir aber verraten, dass es üblich sei, mit seiner Herzensdame beim Rendezvous zur Tankstelle zu fahren und eben Benzin zu tanken, um ihr zu zeigen, dass man es sich leisten kann. Auch wenn es nur ein paar Liter sind…

    Allgemein ist der Glanz der BRIC-Staaten verschwunden, was wieder einmal zeigt, dass sich Prognosen jeder Art als schwierig erweisen, insbesondere wenn sie die Zukunft betreffen…

    • F. Malik

      Eine wichtige Beobachtung. Ausser China ist keines der BRIC-Länder so richtig vorangekommen, sondern im Gegenteil zurückgefallen.
      China zeigt aber, dass es doch geht. Aber nur unter der einen Voraussetzung, die so gut wie nie beachtet wird: Richtiges Management.
      Wie der Vergleich Russland/China zeigt, ist nicht die Staatsform ausschlaggebend. Beides, Russland und China, sind Kommandowirtschaften. Grob gesagt, setzen die Chinesen ihr Staatssystem mit richtigem Management als Vorteil, als Stärke. Russland tut das nicht.

      Umgekehrt sind Brasilien und Indien Marktwirtschaften. Beide haben aber bisher kein Management entwickelt. Also verkommt die Marktwirtschaft zur Korruptionswirtschaft.
      Gunnar Heinsohn zeigt das in seinem Beitrag ja schön auf.
      Er legt das Gewicht dort auf die Bildungsqualität. Auch diese entsteht nur insoweit, als das Bildungssystem richtig gemanagt ist, was in Brasilien eben nicht der Fall ist.

      Mehr und mehr kann man erkennen, dass es eine Kultur des richtigen Managements gibt. Um das zu erkennen, muss man aber anders hinschauen, als man es an den BWL-Fakultäten und Business Schools tut.
      Wenn diese fehlt, dann sind alle bisherigen Staatsformen und Wirtschaftssysteme ineffizient, wenn auch in unterschiedlichem Ausmass.
      Die richtige Managementkultur baut wie jede Kultur, auf Werten auf. Aber auf welchen? Bis heute hat die gesamte sogenannte Kulturforschung dazu nichts beigetragen. Ein Riesengetöse ohne relevante Ergebnisse. Unter anderem deshalb, weil man nicht unterscheidet zwischen der Sachebene des Geschäftes (bzw. verallgemeinert der Tätigkeit einer Organisation) und der Ebene des Managements einer Organisation. Auf der Sachebene sind die Kulturen total verschieden. Auf der Managementebene ist es folgendermassen: Kulturen von schlecht funktionierenden Organisationen sind ebenfalls grundverschieden, weil da alles vorkommt. Die Managementkulturen von richtig funktionierenden Organisationen sind weltweit aber gleich. Das heisst auch, es gibt kein interkulturelles Management – sondern nur richtiges und falsches. Richtiges Management wird durch die 6 Grundsätze verwirklicht, die ich seit Jahren vertrete und lehre. Diese Grundsätze stehen für Werte des richtigen Handelns in und für Organisationen.
      Am leichtesten sieht man es beim Vertrauen. Ich formuliere es so: Es kommt auf das gegenseitige Vertrauen an! Man kann dasselbe auch so ausdrücken: Handle immer so, dass das Vertrauen wächst und sich festigt.

      • Christian Pirker

        Das gegenseitige Vertrauen ist ein plakatives Beispiel dafür, wie einfach und wie schwierig das in der Praxis sein kann. Ich war zuletzt bei einer relativ großen Organisation als Referent und Trainer eingeladen. Da gab es dann beides, echtes und gegenseitiges Vertrauen, aber in anderen Bereichen eben auch das Gegenteil. Ich war dann sehr beeindruckt, als sich in dem erstgenannten Bereich, sehr schnell und konsequent das gegenseite Vertrauen laufend vergrößerte und eben immer mehr festigte. Hier gab es dann innerhalb einer großen Organisation sehr unterschiedliche Subkulturen.

      • A.I.

        Richtiges Management, Sie sagen es.

        Ich behaupte, dass zum richtigen Management die Fähigkeit gehört, die richtigen Fragen stellen zu können.

        Ich behaupte darüberhinaus, dass nicht alle Menschen die richtigen Fragen stellen.

        Je mehr Beobachtungen in der Praxis ich mache, je mehr ich darüber nachdenke, desto mehr komme ich zu dem Schluss, dass die empirische Methode, wie sie in den Naturwissenschaften über Jahrhunderte perfektioniert und spezialisiert wurde, der einzig richtige Zugang zum Management komplexer Systeme ist.

        Man muss natürlich die Methode adaptieren; ich spreche vom grundlegenden Ansatz.

        Ich werde immer misstrauischer gegenüber „Grand Designs“, wo am Reißbrett Organisationen oder gar ganze Gesellschaften entworfen werden, wie damals im Kommunismus.

        Es stimmt zwar, dass ich für mein Frühstück einen Plan machen und ausführen kann: 1. Kaufe Brötchen, 2. Kaufe Butter, 3. Kaufe Wurst, 4. Geh nach Hause, 5. Mache Brötchen zum Kaffee und esse.

        Ich halte es aber für einen gravierenden Irrtum zu glauben, man könne hochkomplexe Organisationen in gleicher Manier managen wie den Frühstücksplan.

        Dafür braucht man evolutionäre Strategien.

        • F. Malik

          Mit Ihrem letzten Satz bin ich sehr einverstanden – und wäre es gerne auch für alle Naturwissenschaften. Wir müssen aber auch bedenken, dass es gerade Naturwissenschaften waren, die das kausal-mechanistische Weltbild geschaffen haben und die dahinter stehende Cartesianische Philosophie.

          Wir müssten sagen: Die modernen Naturwissenschaften, und dort wiederum vorwiegend die Biologischen Fächer, eben z. B. auch die Evolutionstheorie. Und dann v. a. die Komplexitätswissenschaften: Systemtheorie, Kybernetik, Bionik.

          • A.I.

            Auch hier bin ich wiederum ganz bei Ihnen!

            Aber man darf nicht vergessen, dass das kausal-mechanistische Weltbild in der Physik lange, lange überholt ist.

            Der Laplace-Dämon ist eine Erfindung des 19. Jh., seitdem haben Quanten- und Informationstheorie einen sehr langen Entwicklungsweg hinter sich.

            Komplexitätstheorie ist Standard für jeden Physiker meiner Generation und danach; man lernt, dass komplexe Probleme mit alten mechanistischen Ansätzen sehr schnell unlösbar werden.

            Exakte ab-initio-Rechnungen gehen nur für kleine Probleme, und es besteht keine Hoffnung, jemals einen Rechner zu bauen, der die Komplexität abbilden kann.

            Um den Quantenzustand nur eines einzigen Eisenatoms abbilden zu können, und unter der Annahme, dass ein einziges Atom ausreicht, um die Information speichert, bräuchte man mehr Atome als es im bekannten Universum gibt.

            Es ist jedem theoretischen Physiker seit langem klar, dass Ansätze aus dem 19. Jh. scheitern müssen.

            Daher wird seit Jahrzehnten an der Entwicklung sinnvoller Heuristiken geforscht, die dieser Komplexität Herr werden und trotzdem brauchbare Ergebnisse liefern.

            • F. Malik

              Ich stimme Ihnen natürlich zu und freue mich immer, wenn gerade die Physik als eine der Königsdisziplinen weitere Fortschritte macht.
              Darob darf nicht übersehen werden, dass die dominierenden praktische Anwendungen von Physik heute aber noch immer im Kausal-Paradigma erfolgen, zumeist sogar linear-kausal. Und das prägt das Denken in der Praxis weit stärker als die Forschungsfront. Dasselbe gilt ja auch für die Informatik, die weiterhin klar unterscheidbar ja-nein-Schaltungen braucht.

        • A.I.

          Die Chinesen haben doch genau das vorgemacht.

          Ich kenne die Geschichte nicht gut, aber was ich aus allgemein zugänglichen Quellen in Erinnerung habe, ist grob skizziert folgendes:

          1. Zuerst erlaubte man Bauern, Überschüsse zum Plansoll für sich zu behalten.

          2. In Shenzen wurde erst einmal die erste Sonderwirtschaftszone eingerichtet.

          3. Dann wurden mehrere Sonderwirtschaftszonen eingerichtet, darunter Shanghai und, wie ich meine, insgesamt 8.

          4. Erst dann wurde die Währung zum Umtausch freigegeben.

          etc. etc.

          Im Gegensatz zu Deutschland, wo man nach einem fernöstlichen Tsunami sofort komplett durchdreht und im Hauruck-Verfahren einen fragwürdigen Wechsel der Energiebereitstellungssysteme forcieren will, ging man in China in evolutionären Schritten vor und sammelte auf immer größer werdenden Skalen Erfahrungen mit den neuen Systemen, um nun zur wirtschaftlichen Supermacht aufgestiegen zu sein.

          Das Management von Softwareprojekten lehrt: Grand Designs fahren in die Wand.

          Ich verstehe diesen Rückschritt nicht: Wenn ich mir anschaue, wie evolutionär das Apollo-Programm gemanaged wurde, mit all den Prototypen und Tests, mit denen man schrittweise Erfahrungen sammelte…

          • F. Malik

            Grand Designs schaffen enorme Probleme. Aber kleine Schritte reichen heute auch nicht mehr.
            Es brauche von beidem etwas, und die Evolution ist ein nützliches Paradigma dafür.

            • A.I.

              Ja, das stimmt, man muss grob wissen, wo man hin will, was man bewirken will, und wie das Ziel grob erreicht werden soll.

              Sonst ähneln die kleinen Schritte den Bewegungen eines betrunkenen Matrosen.

              Ich erinnere mich lebhaft an die Vorlesung „Software Engineering“, in der eine ganze Reihe von Softwareprojekten vorgestellt wurde, die alle scheiterten.

              Während meine Schlussfolgerung war: „Die Management-Methode scheint mir völlig unbrauchbar“, war die Schlussfolgerung des Professors: „Sie sehen, man muss bei der Wasserfall-Methode noch sehr viel sorgfältiger vorgehen, um ein Scheitern zu vermeiden.“

              Nun ja, man sieht ja am Flughafen BER, oder am Global Hawk, wie toll die Wasserfall-Methode funktioniert.

              In meinem Unternehmen habe ich inzwischen mehrere Beispiele kennen gelernt, die alle nach der Wasserfallmethode gemanaged wurden, und sie sind alle ohne Ausnahme in die Wand gekracht.

              • F. Malik

                Vielleicht wollen Sie in ein paar Sätzen für uns alle die Wasserfall Methode kurz beschreiben. Heute steht Scrum im Zentrum. Wie gross ist der Unterschied und Fortschritt?

      • Wolfgang Pfeifenberger

        Kreative Trennungen scheinen das Merkmal eines jeden Fortschritts zu sein. Dadurch werden behindernde Interdependenzen im System aufgelöst und die neu entstandenen Strukturen können sich ganz auf ihre jeweiligen Aufgaben konzentrieren. Korruption ist so gesehen nichts anderes als die (Wieder-)verschmelzung von Funktionseinheiten, die nur getrennt optimal funktionieren können. Erst die Einführung einer artifiziellen Managementebene, die die Teilsysteme koordiniert machte beispielsweise das GPS-System möglich, welches dem Nutzer erlaubt, jederzeit und an jedem Ort seine Position zu kennen, ohne sich um relative Orientierungshilfen (Leuchtfeuer, markante Punkte in der Landschaft) kümmern zu müssen. Die User-Ebene wurde also massiv entlastet und für andere Aufgaben freigestellt.

        • F. Malik

          Sie sprechen Trennung und Vernetzung zugleich an, wenn ich Sie richtig verstehe.

          • Wolfgang Pfeifenberger

            Das GPS im speziellen ist vom User völlig unabhängig (Server). Durch die interne Vernetzung sind die Satelliten in der Lage, dem Clientsystem mehrere genau definierte Positionsdaten zu liefern, die dieses zu einem exakten Standort zusammenrechnet. Der User muss keinerlei Eigenaktivität mehr erbringen. Er greift auf eine absolute Leistung zurück, ähnlich einem Kunden, der sich nicht um die Funktionszusammenhänge in einer Firma kümmern muss. Man spricht auch von Transparenz des Systems. In einem korrumpierten System muss er dass sehr wohl. Die Transparenz geht verloren, das System wird „opak“. Alle hochentwickelten Systeme tragen den Keim des Rückfalls in direktere = stabilere Verhältnisse in sich. Failed state, Korruption, Sucht, Krebs und Kurzschluss sind die Namen für das immer gleiche Geschehen auf unterschiedlichen Integrationsstufen. Die Gesamtleistung korrumpierter Systeme ist stets deutlich geringer, als von solchen mit funktionierenden kreativen Trennungen.

            • A.I.

              Hmm, so ganz kann ich das nicht unterschreiben.

              Der User benötigt keine Eigenleistung, weil GPS auf physikalischen Prinzipien beruht, die Berechnung der Position mathematisch modellierbar und mithin automatisch durchführbar ist.

              Die Transparenz für den Benutzer entsteht durch die Automatisierbarkeit.

              Gäbe es keine Automaten, die diese Berechnungen durchführen können, müsste der Benutzer wieder verstehend eingreifen, eben wie der Schiffskapitän der Segelflotte, der mit seinem Sextanten seine Position noch nicht kennt, sondern erst nach manuellen Berechnungen unter Hinzunahme von Almanachen.

              • Wolfgang Pfeifenberger

                Exakt! Transparenz durch Modellierung, anschließende Automatisierung und resultierend Allgegenwart der Satellitensignale. Mich interessiert hier die Verallgemeinerung: „Wie kann in einem System überhaupt Transparenz entstehen?“ Antwort: Durch räumliche und zeitliche Allgegenwart. So werden manch alte Kontexte (=Nahbeziehungen) obsolet. Explizite Bezugnahme durch Suchen, Verstehen, sich Annähern, Fixpunktpeilung etc. entfällt. Vor ca. 570 Mill. Jahren war Sauerstoff in den Weltmeeren so reichlich vorhanden, dass fast schlagartig komplexe Tiere und Lebensgemeinschaften entstanden. Der Grund: Ein starkes Oxidationsmittel war omnipräsent, ergo transparent. Transparenz als zentraler Motor des Fortschritts. Intelligenz, deutsch „Einsicht“ konnte auch nur entstehen, weil der optische Sinn bei reichlich Sonnenlicht nicht, wie die meisten anderen Sinne, sich auf die wenigen Gegenstände beziehen muss, die die energetischen oder materiellen Verursacher der Reize sind. Dadurch entstanden Freiräume zur Entwicklung eines Gehirns, in dem viele Dinge simultan und skalierbar aufeinander bezogen werden können. „Nihil est in intellectu, quod non fuerit in sensu“ mal anders.

            • F. Malik

              Lieber Herr Pfeifenberger, ein interessantes Beispiel, das Trennung und Vernetzung gut illustriert.
              Es zeigt sehr schön, dass für das richtige Funktionieren ( richtig = dem Zweck entsprechend) beides in Betracht gezogen werden muss. Dabei ist wichtig, dass beide Begriffe so verwendet werden müssen, dass es um richtige Vernetzung und um richtige Separierung geht.
              Beides kann man jeweils auch falsch machen.

              In Ihrem Beispiel ist das GPS vom User derzeit noch nicht völlig unabhängig, denn er muss mindestens mit einer am/im Körper befindlichen Energie- und Signalsendequelle mit dem GPS richtig verbunden sein.

              Das ist auch insoweit wichtig, als es in und zwischen Systemen unsichtbare, ja mit herrschender Technik und gegebenem Wissenstand unentdeckbare Verbindungen geben kann. Beispiele sind Röntgenstrahlen, deren Wirkung man lange nicht kannt, so wie auch radioaktive Strahlen. Oft ist es z. B. auch einfach die An- oder Abwesenheit einer dritten/oder einfach zusätzlichen Person im System, die das Verhalten des Systems vollständig verändert, nachgerade in einen anderen Modus bringt.

              Besten Dank für Ihre interessanten Beiträge.

              • A.I.

                Aber allgemein sind die Gedanken nicht falsch; sie tauchen sehr oft in Überlegungen zum Design großer Softwaresysteme auf.

                Persönlich bin ich ein Verfechter einfacher, leicht austauschbarer Systeme, die die Komplexität der Problemstellung durch hohen Vernetzungsgrad abbilden.

                Das bedingt, das es stabile und klar definierte Schnittstellen geben muss.

                Dann muss der Kunde (Benutzer) nur wissen: Wenn ich A ins System hineingebe, kriege ich sicher B aus dem System heraus.

                Wenn dann das System erneuert werden muss, ist es völlig gleichgültig, welche Technologie ich dafür einsetze.

                Nur das äußere Verhalten muss nachgebildet werden, und da das System einfach gehalten ist, kann es relativ günstig getauscht werden.

                Es ist der genaue Gegensatz zu dem, was heute vorherrscht: Komplizierte, monolitische Systeme, die kaum mehr zu warten sind, eigentlich abgelöst werden müssten, was aber keiner machen kann, weil niemand mehr die Implikationen verstehen kann.

                Meine Erfahrung: Einmal funktionierte etwas nicht in einem System aus einfachen, hochvernetzten Modulen.

                Ich schaute mir an, was das entsprechende Modul machte, schrieb an einem Vormittag ein Neues, und alles lief wieder glatt.

                • F. Malik

                  Interessant wird es, wenn A ins System geht, und manchmal B, aber manchmal auch C herauskommt, manchmal aber auch X .. die nicht-trivialen Maschinen von Heinz von Foerster.

                  • A.I.

                    Verzeihen Sie mir meine humorvoll gemeinte Erwiderung darauf: So etwas haben wir schon, nämlich in Form von abstürzender Computerprogramme oder explodierenden Ariane-5-Trägerraketen. 🙂

                    Spaß beiseite: wenn ich einen Microservice benutze, um ein größeres System daraus zu stricken, dann muss ich ein deterministisches Verhalten haben.

                    Wenn das nicht vorliegt, funktioniert mein System nicht.

                    Neidvoll blicken manche Softwareentwickler auf die Hardwareentwicklung. Ich sage aber, das liegt daran, dass die Physik der Bauteile eben naturgesetzlich und damit deterministisch funktioniert.

                    Ich steige in ein Flugzeug, ohne um mein Leben zu fürchten, weil ich darauf vertrauen kann, dass ein gut gewartetes Flugzeug eben die Tragkraft X hat, und nicht, je nach Tagesform, mal Y oder Z, die dann zum Absturz führt.

                    Komplizierte Maschinen können nur funktionieren, wenn ihre Komponenten streng deterministisch funktionieren.

                    Bei komplexen Systemen scheint das keine Voraussetzung zu sein.

                    Sie sind resilient gegen Variationen im Input.

                    So erkenne ich einen Menschen wieder, auch wenn er andere Kleidung oder eine Mütze oder Brille auf hat.

                    • F. Malik

                      Ich greife Ihre Schlusssätze auf betreffend Resilienz, das heute gross in Mode ist, aber regelmässig falsch dargestellt wird.

                      Sie sagen es richtig: Unabhängig gegen Variationen im Input, weil diese durch die Systemfeedbacks ausgeglichen werden. Übrigens ist dies auch der Trick der Natur, ihre Systeme unabhängig zu machen von „Wissen“ (Info) über die Kausalität. Ein System muss nicht wissen, warum eine Störung auftritt, sondern nur dass sie auftritt. Dadurch wird die Gegensteuerung durch Feedback ausgelöst.

  5. A.I.

    Zur Wasserfall-Methode:

    Man durchschreitet bei einem Projekt verschiedene, diskrete Phasen.

    Zuerst die Analyse, dann Entwurf, dann Implementation, dann Test, dann Wartung.

    Als letzte Phase würde ich noch das Abschreiben hoher Millionenbeträge für ein nicht funktionierendes System hinzufügen.

    Der Wasserfall funktioniert bei gut bekannten Prozessen, z.B. der Organisation eines Frühstücks für 4 Personen o.ä.

    Effizienz Scrum versus Wasserfall: Scrum-Master berichten regelmäßig doppelte Produktivität bei halbem Ressourceneinsatz, öfter auch mehr.

    In meiner Abteilung wird ebenfalls nur nach Scrum und testgetrieben gearbeitet. Meine eigene Arbeitsweise war dem bereits sehr nahe, daher hatte ich wenig Mühe, mich daran anzupassen.

    Wenn ich mir gewisse Prozesse anschaue, dann habe ich das Gefühl, dass die Voraussetzungen, unter denen ein Prozess ablaufen muss/kann, von einigen nicht richtig verstanden bzw. durchdacht werden.

    Der Prozess selbst kann ja wirklich super sein, es nützt mir aber nichts, wenn ich die erforderlichen Voraussetzungen nicht herstellen kann.

    Der Wasserfall funktioniert bestimmt super, wenn ich jede Eventualität exakt voraussagen kann. Kann ich das?

    • F. Malik

      Zu Ihrem letzten Satz: Nein, kann man nicht, ausser in determinierten Systemen.
      Die Scrum-Geschichte finde ich interessant, aber aus einem anderen Grunde, als die meisten anderen.
      Ich habe folgenden Eindruck: Wenn man mit so etwas wie Scrum so grosse Leistungen herausholen kann,
      dann muss die vorherige Art Software zu entwickeln, furchtbar schlecht gewesen sein. Vielleicht können
      Sie dazu etwas schreiben.

      • A.I.

        Ich schreibe gerne etwas dazu, aber kann das öffentlich nur aus höchstgradig subjektiver Sicht tun.

        Ich könnte einen längeren Aufsatz darüber schreiben, also muss ich hier wählen und verkürzt darstellen.

        Z.B. denke ich, dass Peter Drucker mir beipflichten würde, wenn ich behaupte, dass eine Klasse oder eine Funktionalität in einem Rutsch implementiert werden muss, während eines Zeitblocks, der groß genug ist, das zu schaffen.

        Erweitert auf das Team spiegelt sich das in den Sprints wieder: Radikale Outputorientierung! Am Ende eines Sprints muss ein funktionsfähiges Produkt stehen, und könnte es noch so wenig. Es muss fertig sein und benutzbar sein.

        Dann kommentiert der Kunde, und das Feedback lassen Sie in das nächste Design einfließen.

        So steuern Sie das Projekt in vielen realen Feedback-Zyklen und haben viele Gelegenheiten, korrigierend einzugreifen.

        Beim Wasserfall haben Sie einen einzigen Feedback-Punkt, der auf das Projekt zurückwirkt: Die Abnahme.

        Die Korrekturen erfolgen dann spätestmöglich in der Wertschöpfungskette, ergo dann, wenn es am teuersten und schwierigsten oder gar nicht mehr durchführbar ist.

        Ein wirklich furchtbar schlechter Ansatz, wenn Sie mich fragen.

        • Gunter Fritz

          Als sich mich vor wenigen Jahren zum ersten Mal mit Scrum und kybernetischem Management beschäftigte sah ich schnell Parallelen. Scrum fördert Selbstorganisation, Konzentration auf die wichtigsten Dinge und kennt Feedback. Bei genauerer Betrachtung habe ich dann den Eindruck gewonnen, dass Scrum die Komplexität reduziert anstatt die Handlungsoptionen zu erweitern.

          Bei Scrum passt man sich nicht an die Außenwelt an, sondern fordert von dieser, sich an die neuen Begebenheiten anzupassen. Dies stellt das Prinzip der Lebensfähigkeit auf den Kopf.

          Feedback ist kein Realtime, sondern wird nur zu definierten Zeitpunkten zugelassen. Dies macht die Handhabung starr und unflexibel und dient in meinen Augen eher dazu, ein Team von der Aussenwelt abzuschotten.

          Das große Ganze steht bei Scrum nicht im Fokus. Langfristige Ziele werden nicht oder sehr vage definiert. Zusagen werden nur für den nächsten Sprint (normalerweise ein Zeitraum zw. 1-4 Wochen) getroffen.

          Ein Scrum Team ist nicht effizienter als Wasserfall.
          https://www.fernuni-hagen.de/imperia/md/content/ps/masterarbeit-harwardt.pdf

          Für die Herausforderungen unserer Zeit halte ich weder Wasserfall noch Scrum für besonders geeignet.

          • F. Malik

            Lieber Herr Fritz, besten Dank für diesen sehr wichtigen Eintrag. Sie schaffen genau dort Klarheit, wo sie derzeit so dringend nötig ist. Ich freue mich, wenn Sie Ihre Kybernetik- und Systemkenntnisse hier weiterhin einbringen.

        • F. Malik

          Besten Dank für Ihre Erläuterungen.

          Systems Control in real time … Für jeden klar, der sich mit Kybernetik auskennt. Was immer funktioniert, funktioniert wegen real time control. Sobald dies fehlt oder der Feedback mit Time Lags verspätet kommt, geht das System aus dem Ruder.

          • A.I.

            Sehr geehrter Prof. Malik,

            ich danke Ihnen im Gegenzug, dass Sie meine Ausführungen noch einmal in anderer Sprache auf den Punkt gebracht haben.

            Sie haben mir in den kurzen Sätzen etwas sehr Wichtiges glasklar gemacht!

            Ich erinnere mich an die Diskussion „Sach- und Managementebene voneinander trennen“.

            An diesem Beispiel, das mir aus unmittelbarer Praxis einsichtig ist, und Ihrer Reformulierung in anderer Sprache verstehe ich endlich, was Sie damit meinen!

            Das regt mich zum Nachdenken an. Sicher ist dieses Prinzip auch auf die persönliche Arbeitsmethodik und Bildungssteuerung anwendbar.

            In meinem Arbeitsfeld ist es absolut unerlässlich, sich stets neue Technologien anzueignen, sonst wird man entweder unwirksam oder hat das Glück, Legacy-Systeme warten zu dürfen, bis diese ersetzt werden.

  6. A.I.

    Ich möchte mich bei jedem Einzelnen für diesen wunderbaren Austausch bedanken.

    Mir hat es sehr viel Spaß gemacht und ich empfinde ihn als sehr bereichernd.