8
OR Spektrum (1989) 11:177-184 Springer-Verlag 1989 Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimenten durch den technischen Fortschritt J. Biethahn Lehrstuhl ftir Unternehmensfiihrung, Besteuerung und Wirtschaftsinformatik, Abteilung Wirtschaftsinformatik, Universit~t G6ttingen, Platz der G6ttinger Sieben 7, D-3400 G6ttingen Zusammenfassung. Obwohl die Simulation so verbrei- tet ist, dab sie in kaum einem Aufsatz, in dem eine Anwendung beschrieben wird, noch definiert wird, ist sie dennoch nicht zeitlich konstant geblieben. Die Ursache hierf~r liegt darin, dab die Grenzen yon den Simulationsmodellen sich auf Grund der wissenschaft- lichen Erkenntnisse und des technischen Fortschritts, wie z. B. durch die Expertensysteme, die Parallelrech- nerentwicklung oder die neuronalen Netze, erheblich ver~ndert haben. Wie solche Einfliisse in den Phasen der Modellbil- dung bert~cksichtigt werden k6nnen und wie dadurch das Simulationsmodell ver~indert wird, soll hergeleitet werden. Summary. Although simulation is so wide-spread that it is difficult to find a definition in an essay where an application is described, it has not remained constant over the years. The reason for this is the fact that the limits of simulation models have shifted. This shift is due to new scientific discoveries and technical pro- gress; examples for this are expert systems, the develop- ment of parallel processing and neural networks. This essay intends to demonstrate how such influen- ces within the various phases of model creation can be taken into consideration and how these influences change the simulation model. 1. Vorbemerkungen und Motivation Seit der Mensch existiert, versucht er, seine Umwelt, seine Wirklichkeit zu verstehen [1]. Zu diesem Zweck bildet er diese in Modelle ab und versucht, i~ber diese Modelle das Verhalten seiner Umwelt zu verstehen. Dabei bedient er sich gerne der in sich geschlossenen, mathematischen Verfahren aus dem Bereich des Ope- rations Research (OR). Doch leider sind diese nur in Idealffillen anwendbar. Wenn diese versagen, bietet sich als OR-Verfahren immer noch die Simulation an. Mit ihr k6nnen Sachverhalte, die erforscht werden sollen, als ,,Vertreter von Ausschnitten der Realitfit artifiziell erstellt, beliebig ver~indert und ergSnzt wet- den" [2]. Insofern ist die Simulation nach wie vor ein universelles Probleml6sungsinstrument. Sie ist so ver- breitet, dab kaum ein Autor den Begriff der Simulation heute noch definiert. Doch will man die Simulation als generelle Pro- bleml6sungstechnik noch besser gestalten, so sollte man sich verdeutlichen, dab jedes Ergebnis der Simula- tion nur dann gut oder brauchbar sein kann, wenn das zugrundeliegende Modell, der Ausschnitt des Abbilds der Realit~t, auch unter Betrachtung des technologi- schen Fortschritts und Einbeziehung neuer Disziplinen wie z. B. der Kt~nstlichen Intelligenz und der Parallel- rechnertechnik noch problemad~,quat ist. Deshalb soll in diesem Beitrag - gerade unter Beachtung dieser und auch weiterer Einfltisse - auf die Phasen des Abbil- dungsprozesses ftir das der Simulation zugrundeliegen- de Simulationsmodell [3] eingegangen werden. Es soll gezeigt werden, wie sich durch die genannten Einfliisse die Grenzen und Tendenzen der Modellierung bei Simulationsexperimenten verschieben. Grundvoraus- setzung ftir eine effektive Simulationsmodellgestaltung ist, dab eine Person, die die Aufgabe des Modellierers tibernehmen kann, verftigbar ist. Deshalb wird als nfichstes, bevor auf die Phasen der Modellierung selbst eingegangen wird, das Anforderungsprofil ftir den Modellierer hergeleitet. 2. Anforderungen an die Ausbildung des Modellierers Eine der wesentlichsten und schwierigsten Aufgaben bei jeder Probleml6sung liegt in der Ausarbeitung einer geeigneten Abbildung der Realit~t als Modell und der Festlegung der Modellvariablen zur Modellvariation.

Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimenten durch den technischen Fortschritt

Embed Size (px)

Citation preview

Page 1: Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimenten durch den technischen Fortschritt

OR Spektrum (1989) 11:177-184

�9 Springer-Verlag 1989

Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimenten durch den technischen Fortschritt

J. Biethahn

Lehrstuhl ftir Unternehmensfiihrung, Besteuerung und Wirtschaftsinformatik, Abteilung Wirtschaftsinformatik, Universit~t G6ttingen, Platz der G6ttinger Sieben 7, D-3400 G6ttingen

Zusammenfassung. Obwohl die Simulation so verbrei- tet ist, dab sie in kaum einem Aufsatz, in dem eine Anwendung beschrieben wird, noch definiert wird, ist sie dennoch nicht zeitlich konstant geblieben. Die Ursache hierf~r liegt darin, dab die Grenzen yon den Simulationsmodellen sich auf Grund der wissenschaft- lichen Erkenntnisse und des technischen Fortschritts, wie z. B. durch die Expertensysteme, die Parallelrech- nerentwicklung oder die neuronalen Netze, erheblich ver~ndert haben.

Wie solche Einfliisse in den Phasen der Modellbil- dung bert~cksichtigt werden k6nnen und wie dadurch das Simulationsmodell ver~indert wird, soll hergeleitet werden.

Summary. Although simulation is so wide-spread that it is difficult to find a definition in an essay where an application is described, it has not remained constant over the years. The reason for this is the fact that the limits of simulation models have shifted. This shift is due to new scientific discoveries and technical pro- gress; examples for this are expert systems, the develop- ment of parallel processing and neural networks.

This essay intends to demonstrate how such influen- ces within the various phases of model creation can be taken into consideration and how these influences change the simulation model.

1. Vorbemerkungen und Motivation

Seit der Mensch existiert, versucht er, seine Umwelt, seine Wirklichkeit zu verstehen [1]. Zu diesem Zweck bildet er diese in Modelle ab und versucht, i~ber diese Modelle das Verhalten seiner Umwelt zu verstehen. Dabei bedient er sich gerne der in sich geschlossenen, mathematischen Verfahren aus dem Bereich des Ope- rations Research (OR). Doch leider sind diese nur in

Idealffillen anwendbar. Wenn diese versagen, bietet sich als OR-Verfahren immer noch die Simulation an. Mit ihr k6nnen Sachverhalte, die erforscht werden sollen, als ,,Vertreter von Ausschnitten der Realitfit artifiziell erstellt, beliebig ver~indert und ergSnzt wet- den" [2]. Insofern ist die Simulation nach wie vor ein universelles Probleml6sungsinstrument. Sie ist so ver- breitet, dab kaum ein Autor den Begriff der Simulation heute noch definiert.

Doch will man die Simulation als generelle Pro- bleml6sungstechnik noch besser gestalten, so sollte man sich verdeutlichen, dab jedes Ergebnis der Simula- tion nur dann gut oder brauchbar sein kann, wenn das zugrundeliegende Modell, der Ausschnitt des Abbilds der Realit~t, auch unter Betrachtung des technologi- schen Fortschritts und Einbeziehung neuer Disziplinen wie z. B. der Kt~nstlichen Intelligenz und der Parallel- rechnertechnik noch problemad~,quat ist. Deshalb soll in diesem Beitrag - gerade unter Beachtung dieser und auch weiterer Einfltisse - auf die Phasen des Abbil- dungsprozesses ftir das der Simulation zugrundeliegen- de Simulationsmodell [3] eingegangen werden. Es soll gezeigt werden, wie sich durch die genannten Einfliisse die Grenzen und Tendenzen der Modellierung bei Simulationsexperimenten verschieben. Grundvoraus- setzung ftir eine effektive Simulationsmodellgestaltung ist, dab eine Person, die die Aufgabe des Modellierers tibernehmen kann, verftigbar ist. Deshalb wird als nfichstes, bevor auf die Phasen der Modellierung selbst eingegangen wird, das Anforderungsprofil ftir den Modellierer hergeleitet.

2. Anforderungen an die Ausbildung des Modellierers

Eine der wesentlichsten und schwierigsten Aufgaben bei jeder Probleml6sung liegt in der Ausarbeitung einer geeigneten Abbildung der Realit~t als Modell und der Festlegung der Modellvariablen zur Modellvariation.

Page 2: Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimenten durch den technischen Fortschritt

178 J. Biethahn

Hierzu ben6tigt der Modellierer Erfahrung und Ge- sptir ftir problemorientierte Abbildungen. Dieses muB systematisch geschult werden. An der Universit~it wird mit kleinen Modellen begonnen, mit denen die funktio- nalen AbhS.ngigkeiten, die Effektivit~it von Methoden und die Bedeutung bestimmter Voraussetzungen ver- deutlicht werden und aus denen der Mut zu grSBeren Problemstellungen hergeleitet wird.

Dariiber hinaus vermitteln wir an der Universit~it GSttingen [4] im Rahmen von Projektseminaren auch Erfahrungen im Umgang mit gr6Beren Simulations- modellen, damit die Absolventen nach AbschluB ihres Studiums in der Praxis gleich ftir reale, komplexere Fragestellungen eingesetzt werden k6nnen.

Ftir die Ausbildung von Modellierern ist ein syste- matischer ProzeB erforderlich, der mit kleinen Frage- stellungen beginnt und bis zu immer komplexeren Problemstellungen mit immer anderen Methoden und Simulationswerkzeugen geht. Dabei sollten jedem Mo- dellierer neben den gestaltungsorientierten Simula- tionsmodellen die anderen verschiedensten OR-Mo- delle ftir unterschiedliche Zwecke bekannt sein: Opti- mierungsmodelle, mathematische Modelle, Entschei- dungsmodelle, Spielmodelle [5]. Zu jedem dieser mehr entscheidungsorientierten Modelle gibt es zusgtzlich ein Datenmodell, aus dem die Daten for das Entschei- dungsmodell evaluiert oder bereitgestellt werden k6n- nen. Der Modellierer mul3 also in der Lage sein, die nebeneinanderliegenden Modelle und ihre Schnittstel- len zueinander zu gestalten und zu pflegen.

Es ist demnach offensichtlich, dab ftir eine pre- blemad~iquate Modellbildung zumindest grtindliche Kenntnisse im Bereich der Modelle des Operations Research erforderlich sind. Da aber nach der Modell- abbildung die Simulation in der Regel aufdem Compu- ter durchgeftihrt wird, muB der Modellierer auch in diesem Bereich die Funktionsweise kennen.

In beiden Bereichen ist ein erheblicher Wandel zu beobachten, dem sich der Modellierer stellen muB. Hier sind zur Zeit insbesondere die zwei bereits er- w~hnten neueren Str~mungen zu berticksichtigen, durch die sich die Grenzen und Tendenzen bei der Modellierung verschieben werden, und zwar die inzwi- schen eigenst~indigen Forschungsrichtungen der Ktinstlichen Intelligenzforschung und die der Hardwa- re zuzuordnende Innovation der Parallelverarbei- tungsm6glichkeiten.

Die Einfltisse dieser Forschungsrichtungen sollen in den nachsten Abschnitten bei der Darstellung der Phasen der Modellbildung mitverfolgt werden. Zus~itz- lich zu den erw~ihnten Einfltissen hat der technische Fortschritt auf dem Rechnersektor dazu geftihrt, dab Modelle von Problemen, die selbst 1979 nur auf GrSBtrechnern rechenbar waren, nunmehr fast auf PCs bew~iltigt werden k6nnen. Der Modellierer kann

sich auf Grund des technischen Fortschritts immer wieder Problemen zuwenden, die in der Komplexit~it vor kurzer Zeit noch als unl6sbar galten.

Nur durch das st~indige Beobachten der mit der Simulation zusammenh~ingenden Innovationen ist er in der Lage, ein zeitgem~il3es und nicht starres Gesptir ftir eine geeignete Problemabgrenzung, ftir Problemin- varianten, ftir Variablen und funktionale Abh~ingigkeit zu erhalten, mit dem immer neue, komplexere Ent- scheidungssituationen so tiber die zugeh6rigen Simula- tionsmodelle bew~iltigt werden k6nnen, dab auch an- spruchsvolle Ergebnisse zu erzielen sind.

Nachdem hergeleitet wurde, welche hohen Anfor- derungen der Modellierer erftillen muB, soll nunmehr im folgenden anhand des Phasenschemas zur Problem- 16sung gezeigt werden, wound wie sich Verschiebun- gen ergeben haben.

3. Problemanalyse und Problemdefinition

Die endgtiltige Modellformulierung sollte bekanntlich erst nach einer genauen Problemanalyse, einer Pro- blemdefinition, einer Datenbereitstellungsphase und einer Methodenauswahl erfolgen. Bei der Problemana- lyse sollte nicht - wie bei vielen Simulationsanwendern realisiert - ein Problembereich als Anwendungsfeld ftir ein bereits entwickeltes Simulationstool gesucht wer- den, sondern das Anliegen sollte tats~ichlich darin bestehen, das Problem zu 16sen. Dazu ist in einer ersten Phase mit Hilfe von Kreativit~itstechniken [6] in Dis- kussionen mit Experten, Anwendern, Fachfremden und Kritikern zu versuchen, auch das Problemumfeld transparenter zu gestalten. Nur durch Einsatz derarti- ger Techniken, die im Bereich der Simulation gerne iabersehen werden, ist es m6glich, auch alle Einfltisse zu berticksichtigen. Sicher mag es frtiher wiJnschenswert gewesen sein, durch eine geringere Anzahl an Einfltis- sen eine geringere Komplexit~it zu erhalten, um damit noch Ergebnisse errechnen zu k6nnen. Jedoch er- scheint heute der Einsatz der Kreativitatstechniken sinnvoll, um fiber eine gr6Bere Realit~itsn~ihe bessere Ergebnisse zu erzielen.

Auch empfiehlt es sich, insbesondere bei komplexe- ren Simulationsstudien, die Erkenntnisse anderer Dis- ziplinen zu nutzen. Um diesem Anspruch gerecht zu werden, wurde an der G6ttinger Georg-August-Uni- versit~it ein interdisziplin~ires Graduiertenkolleg zur zentralen Fragestellung der ,,Erforschung und Model- lierung komplexer 6konomischer Situationen und der darin entscheidenden, handelnden und lernenden Per- sonen" geschaffen, in dem acht Professoren aus den Bereichen der Wirtschaftswissenschaft, der Wirt- schaftsp~idagogik und der Psychologie zusammenwir- ken, um so durch die interdisziplin~iren Kenntnisse

Page 3: Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimenten durch den technischen Fortschritt

Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimenten 179

noch komplexere und noch zeitbezogenere Simula- tionsexperimente - insbesondere dutch Bert~cksichti- gung der Wissensverarbeitung - mit einzubeziehen [7].

Dieser Aspekt der Interdisziplinarit~t ist gerade bei den komplexen Simulationsmodellen yon Bedeutung, die durch folgende Systemeigenschaften gekennzeich- net sind [8]:

- groBe Anzahl an eingehenden Variablen, - unterschiedliche Grade der Transparenz bei den eingehenden Variablen, - Vielzahl an m6glichen Zust~inden, die durch die eingehenden Variablen beschrieben werden, - hoher Vernetzungsgrad, mit dem die Variablen un- tereinander verbunden sind, - Eigendynamik einiger Variablen, die sich fiber die Zeit ohne fiuBere Einflul3nahme ver~indern, - Eigendynamik des Gesamtsystems, - Polytelie im Sinne der Bereitstellung vieler zu verfol- gender Ziele, die z. T. kontradiktorisch sind, - sich rasch ~indernde Kontextbedingungen.

Gerade diese Vielzahl an EinfluBgr6Ben bei komplexen Simulationsproblemen, die nach wie vor die wesent- lichsten Grenzen von Simulationsmodellen bilden, macht eine systematische Problemdiskussion unter Einsatz des Wissens anderer Disziplinen und eine Anwendung von Kreativit~itstechniken erforderlich.

Zentrales Anliegen dieser Diskussion ist auch die Problemabgrenzung, d. h., es muB in dieser Phase klar festgelegt werden, welche Komponenten bei der Pro- bleml6sung anschlieBend weiterverfolgt und welche aus welchen Grfinden ffir die zu untersuchende Fragestel- lung vernachlfissigt werden sollen. Mit der Problem- abgrenzung wird gleichzeitig der weiterzuverfolgende Realit~itsausschnitt definiert. Dieser gibt den Rahmen fiir das zu gestaltende Simulationsexperiment.

Ergebnis der 1. Phase ist neben der Problemabgren- zung im Rahmen der Konkretisierung eine klare Pro- blemformulierung.

Dabei sollte dem Modellierer deutlich sein, dab er yon den Unternehmern oder Entscheidern in der Regel nur sehr schlechte Problemdefinitionshilfen bekommt [9]. Meist wird bei vielen Fragen abgewinkt, da den Entscheidenden selbst die Problemumgebungen zu wenig bekannt sind. Auch fehlen ihnen in tier Regel die Kenntnisse fiber m6gliche LSsungswege und zus~itzlich auch die Erfahrung zur Bearbeitung und Formulierung solcher Probleme. Insofern ist ihnen auch nicht klar, worin das Problem begrtindet liegt; h~iufig haben sie nur an der Behandlung ~ihnlicher Problembereiche in ande- ren Unternehmen gesehen, dab es bessere LSsungen gibt. Insofern kopieren sie gerne den Grobproblembe- reich. Da die entscheidenden Personen meist auch keine Detailkenntnisse besitzen, sind sie auch kaum in der Lage, bei der Problemanalyse und insbesondere der

Problemdefinition wirklich so mitzuwirken, wie es ftir eine gute Probleml6sung notwendig w~ire.

Aus diesem Grunde fordert man gerne externe Personen auf, den Betrieb zu beobachten und die tats~ichlichen Probleme aufzudecken und zu formulie- ren. Dabei sollten die bereits erwfihnten Kreativitfits- techniken ebenfalls systematisch angewendet werden.

Durch die kombinierte Hinzuffigung sowohl der Erkenntnisse anderer Disziplinen als auch der Kreati- vitfitstechniken k6nnen v611ig andere Problembereiche in Angriff genommen werden und damit die Grenzen der Anwendbarkeit ausgedehnt werden.

4. Festlegung des Zielsystems

Nachdem das Problem klar formuliert wurde, sollte das Hauptanliegen der Simulation darin bestehen, es auch zu 16sen. Die L6sung des Problems soil gewissen, vorher formulierten, operationalen Zielen (dem Zielsy- stem) entsprechen. Das Ziel einer Simulationsstudie besteht meistens darin, dab man ein Verhalten messen will, d.h., man versucht, fiber die Manipulation yon Input-Daten Variationen der Outputs zu erreichen und diese zu messen. Dart~ber leitet man Erkl~irungen ffir das Verhalten der Zielgr6Be(n) des Zielsystems ab.

Dieses Vorgehen kann bekanntlich aber nur dann zum Erfolg ffihren, wenn die Abbildung aufdas Modell richtig und umkehrbar eindeutig durchgeffihrt wurde, so dab die SchluBfolgerungen vonder Wirklichkeit auf das Modell und wieder zurfick auch konsequent sind. Nur dann k6nnen die Ergebnisse auch konsistent sein. Wenn diese Bedingung erffillt ist, besteht die M6glich- keit, dab man bei hinreichender Datenversorgung auch die gewfinschte(n) Zielgr6Be(n) erh/ilt.

Nachdem man einen Wert oder mehrere Werte der Zielgr6Be ermittelt hat, stellt sich insbesondere bei der stochastischen Simulation die Frage nach der Ver- gleichbarkeit der Zielfunktionswerte:

- Ist ein guter aber unwahrscheinlicher Wert besser als ein ausreichender, aber sehr wahrscheinlicher Wert? - Will man also einen Vergleich fiber Mittelwerte anstellen oder welche Vergleichsmethoden sollen her- angezogen werden?

Diese Fragen massen genau gepriJft werden, u n d e s mug festgelegt werden, unter welchen Bedingungen das Ergebnis eines Simulationsexperimentes als repr~i- sentativ angesehen wird. Ist man schlieglich in der Lage, Zielfunktionswerte zu vergleichen, so besteht h~iufig auch der Wunsch, die Frage nach einer ge- wfinschten Alternative zu beantworten. Dann wird der nfichste Schritt gewagt, und zwar der einer gezielten Suche nach Alternativen, wie z. B. gute oder zufrieden- stellende L6sungen.

Page 4: Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimenten durch den technischen Fortschritt

180 J. Biethahn

Wie bereits erw~ihnt wurde, ist eine Zielgr6Be in der Regel das Ergebnis eines Experimentes mit einer einmaligen Simulation einer Inputdatenkombination oder bei Verhaltensuntersuchungen einer Reihe von derartigen Experimenten. Um ffir den n~ichsten Schritt die Frage nach guten oder gar optimalen Werten der Zielfunktion beantworten zu k6nnen, muB in einer Verhaltensuntersuchung die Form der graphischen Darstellung des Zielfunktionsgebirges abgetastet wer- den. Stellt man dabei fest, dab es sich um ein schwach gekrfimmtes, stabiles und sehr flaches Zielfunktionsge- birge handelt, so sollte die Suche nicht zu aufwendig gestaltet werden, da bereits in der N~ihe des Optimums fast gleich gute Zielfunktionswerte vorzufinden sind. Da aber diese Werte im Bereich der stochastischen Simulation noch durch zuf~illige Gr6Ben, wie z. B. die Umweltvariablen beeinfluBt werden, ist es kaum sinn- voll, das Optimum eines Erwartungswertes zu ermit- teln. In diesem Fall sollten die Ziele des Zielsystems beispielsweise in der Form prfizisiert werden, indem angegeben wird, mit welcher Wahrscheinlichkeit der optimale Wert erreicht wird. In diesem Fall wird also die eigentliche, zu optimierende Zielfunktion, durch ein Suffizienzkriterium ersetzt, d. h., fiir sie wird eine praktikable und operationale Ersatzzielfunktion for- muliert.

Als Ergebnis dieser Phase mug klar das Ziel oder die mSgliche Folge aufeinander aufbauender Ziele doku- mentiert werden, damit feststeht, was untersucht, festgestellt oder ermittelt werden soll.

Erst durch die vollst~indige Definition der Ziele und eventuell noch m6glicher Erweiterungen des Zielsy- stems kann der Rahmen des Simulationsmodelles richtig gestaltet werden, so dab auch alle m6glichen Ergebnisse damit generiert werden.

5. Festlegung der Variablen

Mit der Festlegung der Variablen und ihrer Beziehun- gen ist das Modell weitestgehend definiert. Deshalb kommt der Phase der Festlegung der Variablen grOBte Bedeutung zu und sie hat auch erheblichen EinfluB auf alle anderen vor- und nachgelagerten Phasen.

In dieser Phase muB also zunfichst festgelegt wer- den, welche Input-Daten in welcher Form zur Verft~- gung gestellt werden sollen.

Bisher hatte man sich weitgehend darauf verst~n- digt, m6glichst aggregierte Daten zu verwenden, um auf diese Art die Rechenzeit in akzeptablen Grenzen zu halten und so zu praktikablen Ergebnissen zu kom- men. Diese Einstellung findet man z. B. im Forrester World-Model wieder, dem es gelang, das zuki)nftige Geschehen i~ber sehr wenig Variablen zu beschreiben.

Diese Einstellung sollte man aber auf Grund der

letzten technischen Innovationen - insbesondere im Bereich der Vektor- und Parallelrechner - nochmals i~berprtffen.

Dafter sollten wir der Frage nachgehen, ob wir als Anwender aus dem Bereich der betrieblichen Simula- tion die bisher prim~ir von den technischen Disziplinen genutzten Rechner nicht auch nutzen sollten, um noch detailliertere oder komplexere Simulationsmodelle 16- sen zu k6nnen (vgl. zu dieser Fragestellung auch [10] und [11]). Um diese Frage beantworten zu k6nnen, schauen wir uns das Arbeitsprinzip der Pipeline im Vektorrechner und die Parallelrechner im Vergleich zu den Prozessoren der traditionellen Rechner an: Die bisherigen Rechner, mit denen wir simulierten, arbeite- ten fast ausschlieBlich seriell. Eine Operation wird nach der anderen ausgefiihrt, d.h., man kommt z. B. auf Millionen oder vielleicht Milliarden Operationen pro Sekunde. Seit 1976 jedoch versuchte man mit den sogenannten Vektor- oder Pipeline-Rechnern, wie z. B. die Cray oder die CYBER, zu parallelisieren. Diese Rechner sind generell von den echten Parallel-Rech- nern oder Feldrechnern, die auf denen der ILLIAC- Gruppe von Burroughs oder des DAP-Rechners von ICL aufbauen, zu unterscheiden.

Um das Prinzip dieser verschiedenen Rechnertypen und insbesondere zun~ichst der Pipeline-Rechner zu verdeutlichen, betrachten wir zun~ichst einmal eine Gleitkomma-Operation, wie sie in jedem traditionellen von-Neumann-Rechner ausgeft~hrt wird [12].

- Laden der Operanden - Vergleich der Exponenten - Verschiebung der Mantissen - arithmetische Operation - Normalisierung des Ergebnisses - Wegspeichern des Ergebnisses

Bei serieller Verarbeitung von 2 Vektoren mit n Komponenten auf einem seriellen von-Neumann- Rechner wt~rden fi~r die Gleitkomma-Operation 4n Zykluszeiten zus~tzlich zur Zeit ft~r das Laden und Speichern ben6tigt werden.

Wird dagegen auf einem Vektor-Rechner eine Addi- tion yon 2 Vektoren yon einer sogenannten Additions- pipe durchgefiihrt, so befindet sich in jedem Segment der Pipe ein Operandenpaar in einem anderen Verar- beitungszustand. Geht man davon aus, dab die Pipe eine gr6Bere L~nge hat, so ist das Laden und Speichern nur einmal darin vorzusehen und die Ergebnisse wer- den anschlieBend automatisch weitergegeben, d.h. , dab man nach dem Abziehen des st~indigen Ladens und Speicherns mit jedem Takt ein Ergebnis, d.h. eine Komponente des Vektors hervorbringt, das bereits vielfach (im Beispiel der Gleitkommaoperation vier- mal, aber maximal so h~ufig, wie die Pipe lang ist) bearbeitet wurde. Dieses ist zweifellos eine erhebliche

Page 5: Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimenten durch den technischen Fortschritt

Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimenten 181

Geschwindigkeitsbeschleunigung. Das Prinzip ist da- bei dem der FlieBbandfertigung ~ihnlich. Diese Art der FlieBbandfertigung von Daten bezeichnet man deshalb auch als Prinzip des Datenflusses.

Dabei wird eine Anlaufphase bengtigt, bis das erste Ergebnis herauskommt. Danach werden fortlaufend Ergebnisse geliefert, bis der Prozess z.B. fiber eine Verzweigungsoperation aus dem Takt ger~it.

Pipeline- oder Vektorrechner, die weiter verbreitet sind als die echten Parallelrechner, sollen zun~ichst auf ihre Eignung zur Anwendung ftir die Simulation geprtift werden. Die Eignung diirfte fraglich sein, denn bei den betrieblichen Simulationen gibt es kaum gleich- m~igig regelm~iBig wiederkehrende Instruktionsfolgen ohne Verzweigungen, da die einzelnen Prozesse selbst durch die Prozesse in den Zufallszahlen-Generatoren beeinfluBt werden und dadurch gegebenenfalls auch zu anderen VerarbeitungsmodalitMen verzweigen mils- sen. Insofern diirften diese Rechner fiir die Gestaltung von Simulationsexperimenten ohne Bedeutung sein.

Jedoch kgnnten die echten Parallelrechner ftir die Simulation eine Bedeutung bekommen. Der erste derartige Parallelrechner war die ILLIAC IV, die von Burroughs gebaut wurde und 1000 MIPS erreichen sollte. Hierbei werden viele Einzelrechner (Verarbei- tungseinheiten) zu einem Riesenrechner zusammenge- kntipft, wobei die Einzelrechner weitgehend unabh~in- gig unter der Koordination eines dieser Rechner arbei- ten. Dabei ist der Anteil der Zeit filr die Kommunika- tion der Rechner untereinander, d.h. filr den Aus- tausch von Daten und Kontrollinformationen, hfiufig recht beachtlich, so dab die Mgglichkeit der Parallelar- beit fiir viele Prozesse nicht zum Tragen kommt.

Es ist abet vorstellbar, dab die neue, von Giloi kon- zipierte und im Suprenum-Projekt [13] realisierte Paral- lelrechnerarchitektur ftir die Gestaltung von Simula- tionsmodellen zunehmend an Bedeutung gewinnen wird. Nach dieser Architektur arbeiten eine groBe An- zahl (z. Z. 256) weitgehend unabhfingiger Rechner wie Vektorrechner mit einem Vektorrechnerprozessor nach dem DatenfluBprinzip, d. h., die Daten werden entspre- chend dem DatenfluB und nach Mgglichkeit weitge- hend parallel abgearbeitet. Dabei setzt sich der Gesamt- rechner aus Clustern von Einzelrechnern zusammen, die tiber spezielle Kommunikationsprozessoren in kilr- zester Zeit tiber ein speziell entwickeltes Bus-Netz auf allen Ebenen mit allen Rechnern kommunizieren [14]. Gerade durch dieses eigene Kommunikationsnetz kgn- nen tiber die Suprenum-Rechner sowohl Einzelrech- nungen in den Einzelrechnern als auch die Kommunika- tion in der Form untersttitzt werden, dab alle Funktio- nen fast gleichm,aBig ausgelastet werden kgnnen und damit eine echte ParallelitS, t gewS, hrleistet wird.

Durch die Entwicklung derartiger Rechnerarchi- tekturen kgnnten bei der Simulation betrieblicher

Problembereiche ganz andere und komplexere Pro- blembereiche gelgst werden. Ein Beispiel hierfiir kOnn- te der Beitrag von Stghly [15] sein.

Auch wird bei der Prognose 6konomischer Sach- verhalte gern die Theorie der Zeitreihen herangezo- gen, obwohl jeder weiB, dab die Zeit eigentlich keine Erkl~irungskomponente ist und dab es besser wS.re, nach den wirklichen Ursachen zu forschen. Hier kgnnten z. B. die Regressionsanalyse und die multiva- riaten Verfahren helfen. Diese wurden bisher weitge- hend aus Grtinden der Rechenbarkeit, insbesondere bei Absatzprognosen groBer Sortimente, abgelehnt. Doch findet man bei derartigen Aufgaben ein hohes MaB an Parallelisierbarkeit, so dab Parallel-Rechner, wie z. B. die yon Giloi konzipierten hier weiterhelfen kgnnten.

Gleiche Aussagen sind far den Bereich der Simula- tion und Optimierung anzuftihren. Auch hier geht es nach zwischenzeitlichen Vergleichs- oder Kommunika- tionsphasen primfir darum, Alternativen zu evaluieren. Dieses sind aber typische Aufgaben, die den einzelnen Rechnern eines derartigen Systems zugewiesen werden kgnnen.

Insofern dtirften derartige Architekturen, die wohl demnfichst auch in Workstations als Arbeitsplatzrech- ner eingesetzt werden dtirften, auch auf die Auslegung und Dimensionierung der Simulationsmodelle erhebli- chen EinfluB haben, wodurch die Grenzen erweitert werden.

Nach der Festlegung der Variablen ist zu prtifen, welche Daten in welcher Form zur Verffigung stehen, da davon die Auswahl der Methoden abhfingt.

6. Datenevaluation

Die Datenqualitgt und -aktualit~it ist fiir die Gestal- tung und Durchfiihrung der Simulationsexperimente von groBer Bedeutung. Diese wird im Rahmen der Datenbereitstellung oder Datenevaluation geprtift.

Hfiufig werden von den Betrieben Daten als vor- handen angegeben, die far andere Zwecke bereitge- stellt wurden und die den Genauigkeitsanforderungen ftir die Simulationsstudien sowohl in Bezug auf Aktua- lit~it als auch auf Exaktheit nicht entsprechen.

In diesem Rahmen ist sicher zwischen betriebsinter- nen und betriebsexternen Daten zu unterscheiden, wobei die Probleme bei der Evaluierung der internen Daten nicht so grog sein dtirften wie bei den externen.

AuBerdem ist die Art der Daten von Bedeutung, und zwar ob es sich um

- deterministische, - stochastische oder - unscharfe

Page 6: Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimenten durch den technischen Fortschritt

182 J. Biethahn

Daten handelt, fiir die Methodenauswahl von grSBter Bedeutung. Da in der Regel die Bedeutung der determi- nistischen und der stochastischen Daten bekannt ist, soll hier nur kurz auf die unscharfen oder Fuzzy-Daten eingegangen werden. Bei Fuzzy-Daten handelt es sich um solche, bei denen sich kein exakter numerischer Wert angeben l~il3t. Hierbei handelt es sich h~iufig um verbale Werte wie ,,groB", ,,lang" oder ,,dick". Eine Methodik, wie man mit derartigen Daten umgehen kann, wurde von Zadeh entwickelt und yon Zimmer- mann fiir 6konomische Fragestellungen weiterent- wickelt [16].

Neu scheint auch die M6glichkeit der Behandlung unscharfer Daten mit eigenen Prozessoren zu sein [17]. Danach wurden an der Kumamota-Universit~it in Tokio die weltweit ersten zwei Fuzzy-Mikroprozesso- ren entwickelt. Prozessoren dieser Art sollen Fuzzy- Befehle mit unscharfen Informationen verarbeiten k6nnen, w~ihrend die herk6mmlichen Rechner nur mit numerisch exakt darstellbaren Informationen umge- hen k6nnen.

Ein groBer Anwendungsbereich ft~r diese Chips k6nnte neben anderen Bereichen in der Wirtschaft liegen und zwar insbesondere im Bereich der Compu- tersimulation. Bereits im Beitrag zum letzten Sympo- sium ,,Simulation als betriebliche Entscheidungshilfe" [18] machte der Autor 1986 darauf aufmerksam, daB Informationen in der Realit~t in der Regel unscharf sind. Zadeh behauptet sogar, dab eigentlich alle Daten unscharf seien und dab die daraus resultierenden Ergebnisse entsprechend hergeleitet werden mt~Bten. Ansonsten w~iren diese Ergebnisse nur eine Frage des Glaubens [19]. Nicht ganz so deutlich, jedoch in ~ihnlichem Sinne finder man in der Literatur Anmer- kungen [20].

Die unscharfen Daten werden bisher in der Praxis und auch vonder Theorie her meist so behandelt, dab man sie zun~ichst auf numerische Werte abbildet und dutch einen numerischen Mittelwert zu erfassen und zu bearbeiten versucht. Falls dieses versagt, versucht man, eine Verteilungsfunktion zu ermitteln, wobei das Ziel, n~imlich die ,,Aufstellung eines praktikablen Mo- dells", die Problematik der Datenevaluation vergessen l~iBt.

Will man im Rahmen der Simulation die Fuzzy- Variablen miteinander kombinieren, so mtissen neben den Werten auch die entsprechenden Zugeh6rigkeits- funktionen ebenfalls miteinander kombiniert werden. Bei unseren Experimenten zeigte sich, dab dann der Rechenaufwand exponentiell steigt. Eine Optimierung war bei einer L6sungssuche mit nur zwei Variablen gerade noch m6glich.

Bei zus~itzlicher Einbeziehung mehrerer Fuzzy- Variablen in einen OptimierungsprozeB, wie es bei- spielsweise Zimmermann im Bereieh der linearen Opti-

mierung realisiert hat [21], sind LSsungen nur bei sehr wohlgestalteten und nicht zu komplexen Simulations- problemen mSglich.

Die Entwicklung der oben angesprochenen Chips k6nnte ffir uns AnlaB sein, unsere Simulationsmodelle noch einmal zu tiberprt~fen und festzustellen, inwieweit man sich im Bereich der Evaluierung nicht doch um mehr Realit~it bem~ihen sollte, um die tats~ichlich vorliegenden Fuzzy-Variablen mit in den Kalkt~l auf- zunehmen.

7. Methodenauswahl

Nach der Festlegung des zu simulierenden Realit~ts- ausschnitts, der Zielfunktion, der Variablen und der Datenbereitstellung mt~ssen die Methoden ausgew~ihlt werden.

Bekanntlich liegen u.a. Methoden ffir die Simula- tion von Warteschlangen in jedem Software-Tool zur Simulation vor. Dagegen dt~rfte aber die Bereitstellung der Methoden ft~r die Simulation yon optimalen Pro- duktionsprogrammen oder optimaler Logistik auf er- hebliche Schwierigkeiten stoBen. Hier ist der Fach- mann ft~r Operations Research gefordert. Er wird dabei von guten Software-Tools unterstfitzt, mit denen Datenbereitstellung und DatenfluB erfolgen und die er dutch eigene Routine und durch weitere Unterpro- gramme aus der Softwarebibliothek erg~inzen kann.

Die Tendenz geht heute zu einer Nutzung von immer umfassenderen Tools, wie auch in den Beitr~_gen von Heeg [22] und Vaessen [23] in diesem Band deutlich wird. Doch sollten diese Tools durch die Tools der wissensbasierten Systeme oder Expertensysteme - wie es bereits im G6ttinger Graduiertenkolleg erfolgt - erg~inzt werden.

Bei der Entwicklung yon Expertensystemen wird von der traditionellen Programmierung abgewichen, indem zun~ichst einmal das traditionelle Programm in zwei Teilbereiche aufgeteilt wird, und zwar in den konstanten Teil - d e r dem alten, in sich starren Programm entspricht - und dem variablen Teil, in dem die Regeln und damit ,,Wissen" enthalten ist. Diese Regeln werden systematisch in sequentieller Form bzw. in der Form, wie es die Regeln verlangen, abgearbeitet. Meist werden diese Regeln als Anweisungen vom IF- THEN-ELSE Typ dargestellt, deren Abfolge von den Fakten oder den Werten aus den SchluBfolgerungen abh~ingt. Dabei werden Fakten tiber die Regeln t~ber- prtfft und Schlul3folgerungen aus diesen gezogen.

Im Grunde ist die Entwicklung und Anwendung yon Expertensystemen nichts anderes als die systemati- sche Simulation eines Experten, ohne dessen Intelli- genz vollst~indig abbilden zu kSnnen. Der Bereich der Expertensysteme gewinnt immer mehr an Bedeutung.

Page 7: Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimenten durch den technischen Fortschritt

Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimcntcn 183

Auch wird versucht, ihn hardwaretechnisch zu unter- sttitzen. Ft~r die potentiell einmal m6glichen Experten- systeme werden sowohl in japanischen als auch in amerikanischen Labors immer aufwendigere, hochin- tegrierte Prozessoren entwickelt. Ich m6chte in diesem Zusammenhang an die hochentwickelten Prozessoren von Texas Instruments, von APPOLLO oder SUN im Rahmen spezialisierter Workstations erinnern, mit denen verschiedene Expertensystemshells unterstt~tzt werden und wodurch es zu wesentlichen Erh6hungen der Rechengeschwindigkeit gekommen ist. Die dort entwickelten Prozessoren k6nnten sicher auch Anwen- dung fiir die Simulation finden und besonders bei der Bew/iltigung von Simulationsmodellen ft~r die be- triebswirtschaftliche Entscheidungshilfe hilfreich sein.

Das gleiche gilt ftir die Entwicklung der japanischen Computer der 5. Generation, die in logical instructions per second (LIPS) gemessen werden sollen, weil hier nicht mehr mathematische, sondern vielmehr logische Instruktionen dominant sein werden. Dabei ist davon auszugehen, dab einer LIPS ca. 1000 MIPS entspre- chen. Bei dem japanischen Konzept der Computer der 5. Generation von Moto Oka werden 100 MLIPS bis 1 GLIPS erwartet und man meint, dab durch Paralleli- sierung von Operationen eine zus~itzliche Beschleuni- gung um den Faktor 1000 m6glich sein wird. Welche Simulationsmodelle k6nnen dann in der betrieblichen Simulation in Angriff genommen werden?

8. Ausblick

Bei den Schritten zur Modellierung von Simulationsex- perimenten wurde bisher nur vom State of Art ausge- gangen. Doch bereits heute ist ein wesentlicher Wandel durch die m6gliche Einft~hrung der neuronalen Netze, in denen das menschliche Gehirn simuliert wird, erkennbar. Mit dieser Technologie wiirde der ProzeB der Simulation grundlegend verS.ndert und auch weiter parallelisiert werden (vgl. hierzu auch [24]). Doch auch bis dahin kann durch die Integration der angesproche- nen verffigbaren Technologien der Komplexionsgrad der Simulationsmodelle - der Umwelt entsprechend angepaBt - welter zunehmen, und so k6nnen immer umfassendere Erkenntnisse gewonnen werden.

Literatur

I. Vgl. Rausch, H.: Modelle tier Wirklichkeit. Hannover 1985, S. 3. 2. Vgl. Achtenhagen, F.; Biethahn, J.; Bloech, J.; FaBheber, P.;

Gabisch, G.; Hesse, H.; LUer, G.; Scholl, W. (InterdisziplinS_res Graduiertenkolleg): Komplexe 6konomische Situationen. In: Weinert, E; Lfier, G.: Graduiertenstudium an der Psychologie G6ttingen, Toronto/ZUrich, 1987, S. 78-85, hier S. 85.

3. Vgl. Mertens, P.: Simulation. 2, neu bearbeitete Auflage, Stuttgart 1982, S. 6.

4. Vgl. hierzu Mucksch, H.; Schoppe, A.: Anwendung der Simula- tion im Projektseminar der Wirtschaftsinformatik der Universi- tS_t G6ttingen, dargestellt an zwei ausgew~ihlten Beispielen, erscheint in: Simulation als betriebliche Entscheidungshilfe Band II, hrsg. von Biethahn, J.; Hummeltenberg, W.; Schmidt, B. In der Reihe: Fachberichte Simulation. Berlin, Heidelberg, New York, 1989.

5. Vgl. auch hierzu Radermacher, F.: Modell Management: The Care of Intelligent Decision Support. Unver6ffentlichtes Vor- tragsvorausschrift zum Vortrag auf der Tagung ,,Data, Expert Knowledge and Decision ~' vom 3.-5.9.89 in Hamburg.

6. Vgl. hierzu Biethahn, J.; Mucksch, H.; Ruf, W.: Ganzheitliches lnformationsmanagement, Band I. Miinchen 1989, S. 137-168. Vgl. Daenzer, W.: Systems Engineering. 6. Auflage, ZUrich 1988, S. 222. Vgl. Schmidt, G.: Methoden und Techniken der Organisa- tion. 8. Auflage, Giegen 1989, S. 232ff~

7. Vgl. hierzu Achtenhagen, E; Biethahn, J.; Bloech, J.; Fagheber, P.; Gabisch, G.; Hesse, H.; LUer, G.; Scholl, W. (InterdisziplinS.- res Graduiertenkolleg): Komptexe 6konomische Situationen. In: Weinert, F.; LUer. G.: Graduiertenstudium an der Psychologie G6ttingen, a.a.O.

8. Vgl. hierzu Achtenhagen, F.; Biethahn, J.; Bloech, J.; FaBheber, P.; Gabisch, G.; Hesse, H.; Lfier, G.; Scholl, W. (Interdisziplinfi- res Graduiertenkolleg): Komplexe 5konomische Situationen. In: Weinert, F.; ktier, G.: Graduiertenstudium an der Psychologie G6ttingen, a.a.O.

9. Vgl. Simon, H.: Entscheidungsverhalten in Organisationen. Deutsche Ubersetzung von MUller, W., Miinchen 1981, S. 30, s. 116-128 und Zimmermann, H.J.: Operations Research - Metho- den und Modelle. Braunschweig/Wiesbaden, 1987, S. 40-41.

10. Siehe auch Biethahn, J.: Perspektiven und Tendenzen in der Simulation auf der Basis des Technologiewandels. In: Simula- tion als betriebliche Entscheidungshilfe, Band II, hrsg. von Biethahn, J.: Hummeltenberg, W.; Schmidt, B. Berlin/Heidel- berg, 1989.

I 1. Vgl. Mattern, F.; Mehl, H.: Diskrete Simulation - Prinzipien und Probleme der Effizienzsteigerung durch Parallelisierung. In: Informatik-Spektrum, Heft 4, 1989, S. 198-210.

12. Vgl. zu diesen AusfUhrungen z.B. Giloi, W.K.: DatenfluB- Architektur und Datenstruktur, Architektur in Entwicklungs- sperspektiven minlerer Rechnersysteme. Hrsg. von Probster, W.E.; Remshardt, R.. Miinchen 1984; vgl. ebenso Giloi, W.K.: Der Suprenum-Rechner, c't. Heft 7/88, S. 92-100 und Bode, A. und HS_ndler, W.: Rechnerarchitektur II, Berlin, Heidelberg, New York, Tokio 1989; vgl. ebenso Ungerer, T.: Innovative Rechnerstrukturen, Bestandsaufnahme, Trends, M6glichkeiten. Hamburg, New York, 1989, S. 73 ff und S. 166 if; vgl. ebenso Regenspurg, G.: Hochleistungsrechner-Architekturprinzipien. Hamburg, New York, 1987, S. 16ft.

13. Vgl. zum Suprenum-Konzept: Giloi, W.K.: Der Suprenum- Rechner, eine Paralletrechnerarchitektur fur numerische Anwen- dungen. In: c't 1988, Heft 7, S.92-100.

14. Vgl. Trottenberg, U.: Der Suprenum-Rechner. Ein Parallelkon- zept mit superschneller Anwendungssoftware. In: c't 1988, Heft 8, S. 150-157.

15. Vgl. StS_hly, P.: Einsatzplanung fUr KatastrophenfS.11e mittels Simulation auf der Basis yon Simulation. In: OR-Spektrum 4/ 1989.

16. Vgl. hierzu Zimmermann, H.J.: Fuzzy Sets Theory and its Applications. Dordrecht, Boston, ... 1985.

17. Vgl. Computerwoche v. 9.12.1988. 18. Vgl. Biethahn, J.: Simulation - eine Methode zur Findung

betriebswirtschaftlicher Entscheidungen. In: Simulation als be- triebliche Entscheidungshilfe, hrsg. von Biethahn, J. und Schmidt, B., Berlin, New York .... 1987, S. 79-91, bier S. 84.

Page 8: Verschiebung der Grenzen und Tendenzen in der Modellierung von Simulationsexperimenten durch den technischen Fortschritt

184 J. Biethahn

19. Anmerkung yon L.A. Zadeh auf der Tagung Fuzzy Sets Theo- ry and Applications in Louvain-la-Neuve, Belgien, 8.-20.7. 1985.

20. Vgl. Milling, P.: Quantifizierungs- und Validierungsprobleme bei Entscheidungsuntersti~tzungs-Modellen. In: Simulation als be- triebliche Entscheidungshilfe, hrsg. von Biethahn, J. und Schmidt B., Berlin, New York .... 1987, S. 39-51.

21. Vgl. z.B. Zimmer, H.J.: Operations Research - Methoden und Modelle, Braunschweig, Wiesbaden, 1987, S. 42-49 und S. 112- 129.

22. Vgl. Heeg/Mosner: ProfiSee: Visuelle, interaktive Simulation und Modellierung mit dem objektorientierten Programmiersy- stem Smalltalk-80.

23. Vgl. Vassen, W.: ProfiSee: A Workbench for Visual Interactive Simulation and Modelling in the Chemical-Pharmaceutical Industry.

24. Vgl. Biethahn, J.: Perspektiven und Tendenzen der Simulation auf der Basis des Technologiewandels. In: Simulation als betrieb- liche Entscheidungshilfe, Band II, hrsg. von Biethahn, J.; Hummeltenberg, W.; Schmidt, B., Berlin/Heidelberg, 1989.