Information

Ist eine neue Softwarebibliothek zur Simulation natürlicher Prozesse wie Hunger nötig?

Ist eine neue Softwarebibliothek zur Simulation natürlicher Prozesse wie Hunger nötig?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Diese Art von Verzahnung mit einer Frage, die ich an der AI Exchange gestellt habe: Gibt es einen Bedarf an stochastischen Eingaben, um die reale Biologie und Umwelt nachzuahmen?

Ich dachte, diese Seite würde mehr Einblick in das geben, was ich versuche, neurologisch/biologisch zu erreichen.

Meine Frage lautet: Damit künstliche Intelligenz Bewusstsein, Körperprozesse, die Gedanken beeinflussen können, und komplexere Reaktionen auf Reize, die möglicherweise nicht immer deterministisch sind, genauer simulieren kann, wäre eine neue Bibliothek ähnlich TensorFlow oder PyTorch notwendig oder diese Bibliotheken ausreichend genug?

Dieses Papier verwendet tatsächlich FFNN, um Hunger/Sättigung zu erreichen: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4936290/

Wäre eine neue Mathematik erforderlich, z. B. Linearzeitlogik oder Fuzzy-Logik, die besser in einer völlig neuen Softwarebibliothek implementiert werden könnte? Vielleicht zusammen mit etwas wie TensorFlow verwendet, um die Variationen von Gefühlen wie Hunger oder zufällige Gedanken und kreative Inspiration zu reproduzieren?

Ich denke zum Beispiel an eine Anwendung ähnlich einem Tensorfeld, bei der im Laufe der Zeit eine Stimmung (fröhlich/traurig/wütend) (buchstäblich) Stück für Stück geändert werden könnte, was die umgebenden Tensoren stochastisch beeinflusst, aber es kann überhaupt nicht zu einem vollen Stimmungswechsel führen.

Konzentriere ich mich zu spezifisch auf eine Softwarebibliothek, um das zu erreichen? Merkmale von Bewusstsein/Stimmungen/Gedanken statt dem holistischen Heiligen Gral, dem jeder nachjagt, um KI-Bewusstsein und künstliche allgemeine Intelligenz zu erreichen? Ich dachte daran, dies als Open-Source-Softwareprojekt zu starten, aber ich bin vielleicht auf einer wilden Jagd.


8. Belletristik

Modelle beinhalten natürlich Idealisierungen. Es wurde jedoch argumentiert, dass einige Arten der Idealisierung, die bei der Modellierung in der Computersimulation eine besonders wichtige Rolle spielen, speziell sind, und zwar insofern, als sie den Titel "Fiktion" verdienen. In diesem Abschnitt werden Versuche erörtert, Fiktionen zu definieren und zu erforschen ihre Rolle in der Computersimulation.

Es gibt zwei unterschiedliche Denkrichtungen über die Rolle von Fiktionen in der Wissenschaft. Laut einem sind alle Modelle Fiktionen. Motiviert wird diese Denkweise durch die Berücksichtigung beispielsweise der Rolle des „idealen Pendels&rdquo in der Wissenschaft. Wissenschaftler, so wird argumentiert, machen oft Behauptungen über diese Art von Entitäten (z. B. "das ideale Pendel hat eine Periode proportional zur Quadratwurzel seiner Länge", aber sie sind in der realen Welt nirgendwo zu finden, daher müssen sie fiktive Entitäten sein . Diese Argumentation über fiktive Entitäten in der Wissenschaft hat nichts mit Computersimulation zu tun&mdashreader, die sich für dieses Thema interessieren, sollten den Beitrag zur wissenschaftlichen Repräsentation [in Vorbereitung] konsultieren.

Eine andere Denkrichtung über Fiktionen beschäftigt sich mit der Frage, welche Arten von Darstellungen in der Wissenschaft als fiktiv anzusehen sind. Dabei geht es weniger um die Ontologie wissenschaftlicher Modellentitäten, sondern um den Repräsentationscharakter verschiedener postulierter Modellentitäten. Hier argumentiert Winsberg (2009c), dass Fiktionen eine besondere Verbindung zu Computersimulationen haben. Oder besser gesagt, dass einige Computersimulationen Elemente enthalten, die am besten typisieren, was wir in der Wissenschaft als fiktive Darstellungen bezeichnen könnten, auch wenn diese Darstellungen in Simulationen nicht eindeutig vorhanden sind.

Er stellt fest, dass die erste oben erwähnte Vorstellung von einer Fiktion, die „jede Darstellung, die der Realität widerspricht, zu einer Fiktion macht&rdquo (S. 179) unserer gewöhnlichen Verwendung des Begriffs entspricht: eine grobe Karte ist keine Fiktion. Dann schlägt er eine alternative Definition vor: Sachbücher werden als &ldquogut genug&rdquo-Leitfaden für einen Teil der Welt angeboten (S. 181), die Belletristik ist es nicht. Aber die Definition muss verfeinert werden. Nehmen Sie die Fabel von der Heuschrecke und der Ameise. Obwohl die Fabel Lektionen darüber bietet, wie die Welt ist, ist sie immer noch Fiktion, weil sie „ein nützlicher Leitfaden für die Art und Weise, wie die Welt in einem allgemeinen Sinne ist&rdquo ist, und nicht eine spezifische Anleitung für die Art und Weise, wie ein Teil der Welt ist, &ldquoprima facie repräsentativ target&rdquo, eine singende Heuschrecke und eine werktätige Ameise. Sachbücher dagegen &ldquozeigen auf einen bestimmten Teil der Welt&rdquo und sind ein Wegweiser zu diesem Teil der Welt (S. 181).

Derartige fiktive Komponenten von Modellen werden in bestimmten Computersimulationen paradigmatisch veranschaulicht. Zwei seiner Beispiele sind das „Silogenatom&rdquo und „künstliche Viskosität&rdquo. Silogenatome erscheinen in bestimmten nanomechanischen Modellen von Rissen in Silizium&mdasha-Spezies der Art von Mehrskalenmodellen, die Quantenmechanik und Molekularmechanik wie in Abschnitt 2.3 erwähnt vermischen. Die silogenhaltigen Modelle der Rissausbreitung in Silizium beschreiben den Riss selbst mit Quantenmechanik und die unmittelbare Umgebung des Risses mit klassischer Molekulardynamik. Um die Modellierungsgerüste in den beiden Regionen zusammenzuführen, wird die Grenze so behandelt, als ob sie &lsquosilogen&rsquo-Atome enthält, die eine Mischung aus den Eigenschaften von Silizium und denen von Wasserstoff aufweisen. Silogenatome sind Fiktionen. Sie werden nicht einmal als &lsquogut genug&rsquo-Beschreibung der Atome an der Grenze angeboten– ihre prima facie-repräsentativen Ziele. Aber sie werden verwendet, damit das Gesamtmodell hoffen kann, die Dinge richtig zu machen. Somit ist das Gesamtmodell keine Fiktion, sondern eine seiner Komponenten. Künstliche Viskosität ist ein ähnliches Beispiel. Flüssigkeiten mit abrupten Erschütterungen sind in einem Rechengitter schwer zu modellieren, da sich die abrupten Erschütterungen innerhalb einer einzelnen Gitterzelle verstecken und durch einen solchen Algorithmus nicht aufgelöst werden können. Künstliche Viskosität ist eine Technik, die vorgibt, dass die Flüssigkeit hochviskos ist, genau dort, wo der Schock ist, so dass der Schock weniger abrupt wird und über mehrere Gitterzellen verwischt. Die falsche Viskosität und damit die Dicke des Stoßdämpfers trägt dazu bei, dass das Gesamtmodell „gut genug funktioniert.&rdquo Auch hier ist das Gesamtmodell der Flüssigkeit keine Fiktion, es ist ein ausreichend zuverlässiger Leitfaden für das Verhalten des Flüssigkeit. Aber die Komponente künstliche Viskosität ist eine Fiktion und wird nicht verwendet, um den Stoß zuverlässig zu modellieren. Es wird in ein größeres Modellierungs-Framework integriert, um dieses größere Framework „zuverlässig genug zu machen.&rdquo

Dieser Bericht hat zwei Arten von Kritik auf sich gezogen. Toon (2010) hat argumentiert, dass diese Definition einer Fiktion zu eng ist. Er gibt Beispiele für historische Fiktionen wie Ich, Claudius, und Schindler&rsquos Arche. Toon unterstützt also vermutlich eine breitere Auffassung der Rolle von Fiktionen in der Wissenschaft, wonach sie in der Computersimulation keine besonders prominente oder erhöhte Rolle spielen.

Gordon Purves (demnächst) argumentiert, dass es Beispiele für Fiktionen in Rechenmodellen (sein Beispiel sind sogenannte &ldquoimaginary cracks&rdquo) und anderswo gibt, die die oben diskutierten strengen Anforderungen nicht erfüllen. Im Gegensatz zu Toon möchte er jedoch auch fiktive Modellierungselemente von den nicht-fiktionalen abgrenzen. Seine Hauptkritik bezieht sich auf das Kriterium der Fiktionalität in Bezug auf soziale Nutzungsnormen. Purves argumentiert, dass wir in der Lage sein sollten, zu entscheiden, ob eine Modellierung ohne solche Normen eine Fiktion ist oder nicht. So will er eine intrinsische Charakterisierung einer Science Fiction finden. Sein Vorschlag nimmt als konstitutiv für Modellfiktionen an, dass sie nicht die Eigenschaft haben, die Laymon (1985) als „stückweise Improvability&rdquo (PI) bezeichnete. PI ist ein Merkmal vieler Modelle, bei denen es sich um Idealisierungen handelt. Es besagt, dass Ihr Modell mit der Entidealisierung immer genauer wird. Aber wenn Sie ein Silogenatom deidealisieren, erhalten Sie keine immer genauere Simulation eines Siliziumrisses. Aber Purves hält dieses Versagen von PI für konstitutiv für eine Fiktion und nicht nur für ein Symptom.


Bilder von Lebensmitteln erzeugen Hungergefühle

Max-Planck-Forscher haben erstmals wissenschaftlich nachgewiesen, was Laien schon immer wussten: Der bloße Anblick leckerer Speisen regt den Appetit an. Eine Studie an gesunden jungen Männern hat dokumentiert, dass die Menge des neurosekretorischen Proteinhormons Ghrelin im Blut durch visuelle Stimulation durch Nahrungsbilder ansteigt. Als Hauptregulator steuert Ghrelin sowohl das Essverhalten als auch die physikalischen Prozesse, die am Nahrungsstoffwechsel beteiligt sind.

Diese Ergebnisse zeigen, dass neben den physiologischen Mechanismen zur Aufrechterhaltung des Energiezustandes des Körpers auch Umweltfaktoren einen spezifischen Einfluss auf die Nahrungsaufnahme haben. Somit könnte die allgegenwärtige Präsenz appetitlicher Lebensmittel in den Medien zu einer Gewichtszunahme in der westlichen Bevölkerung beitragen.

Warnung: "Vermeide es, Bilder von appetitlichem Essen anzuschauen, da es dich hungrig macht!" Ernährungsberater könnten in Zukunft Empfehlungen in diese Richtung geben. Es ist seit langem bekannt, dass neben den physiologischen Regelkreisen zur Aufrechterhaltung eines ausreichenden Energiezustandes des Körpers auch äußere Reize wie der Geruch oder der Anblick von Lebensmitteln unser Hungergefühl und unser daraus resultierendes Essverhalten beeinflussen. Die Gefahr, dass die Exposition gegenüber solchen Bildern zum Verzehr von Nahrungsmitteln führt, die nicht zur Aufrechterhaltung des Energiezustandes des Körpers benötigt werden, ist in unserer werbedominierten Gesellschaft besonders hoch.

In einer Studie mit gesunden männlichen Probanden untersuchten Axel Steiger und seine Forschungsgruppe am Max-Planck-Institut für Psychiatrie die molekularen Prozesse zur Steuerung der Nahrungsaufnahme. Sie untersuchten die spezifische physiologische Reaktion der Testpersonen auf Bilder, die entweder leckeres Essen oder nicht essbare Gegenstände zeigen. Gemessen wurden die Konzentrationen verschiedener Hormone im Blut wie Grehlin, Leptin und Insulin, die bei der Regulierung der Nahrungsaufnahme eine Rolle spielen. Tatsächlich beobachteten die Forscher, dass die Konzentration von Grehlin im Blut speziell als Reaktion auf visuelle Stimulation mit Lebensmittelbildern ansteigt.

„Die Ergebnisse unserer Studie zeigen erstmals, dass die Freisetzung von Ghrelin ins Blut zur Regulierung der Nahrungsaufnahme auch durch äußere Faktoren gesteuert wird. Unser Gehirn verarbeitet dabei diese visuellen Reize und die physikalischen Prozesse, die unsere Wahrnehmung steuern.“ Der Appetit wird unwillkürlich ausgelöst. Dieser Mechanismus könnte uns veranlassen, bereits zwei Stunden nach dem Frühstück ein Stück Kuchen zu essen", sagt Petra Schüumlssler, Wissenschaftlerin am Max-Planck-Institut. Sie empfiehlt daher Personen mit Gewichtsproblemen, Bilder von appetitanregendem Essen vorzugsweise zu vermeiden.


16 Antworten 16

Linux verwendet ein 1-1-Threading-Modell, mit (für den Kernel) keine Unterscheidung zwischen Prozessen und Threads – alles ist einfach eine ausführbare Aufgabe. *

Unter Linux klont der Systemaufrufklon eine Aufgabe mit einer konfigurierbaren Freigabeebene, darunter:

  • CLONE_FILES : Geben Sie dieselbe Dateideskriptortabelle frei (anstatt eine Kopie zu erstellen)
  • CLONE_PARENT : Richten Sie keine Eltern-Kind-Beziehung zwischen der neuen und der alten Aufgabe ein (sonst getppid() des Kindes = getpid() des Elternteils)
  • CLONE_VM : den gleichen Speicherplatz teilen (anstatt eine COW-Kopie zu erstellen)

fork() ruft clone (wenigstes Teilen) auf und pthread_create() ruft Klonen (meistes Teilen) auf. **

Forking kostet etwas mehr als pthread_createing, da Tabellen kopiert und COW-Mappings für den Speicher erstellt werden, aber die Linux-Kernel-Entwickler haben versucht (und erfolgreich), diese Kosten zu minimieren.

Das Umschalten zwischen Tasks, wenn sie sich den gleichen Speicherplatz und verschiedene Tabellen teilen, ist ein kleines bisschen billiger als wenn sie nicht geteilt werden, da die Daten möglicherweise bereits in den Cache geladen werden. Das Wechseln von Aufgaben ist jedoch immer noch sehr schnell, selbst wenn nichts geteilt wird – dies ist etwas anderes, das Linux-Kernel-Entwickler versuchen sicherzustellen (und sicherzustellen).

In der Tat, wenn Sie auf einem Mehrprozessorsystem arbeiten, nicht Die gemeinsame Nutzung kann sich sogar positiv auf die Leistung auswirken: Wenn jede Aufgabe auf einem anderen Prozessor ausgeführt wird, ist die Synchronisierung des gemeinsam genutzten Speichers teuer.

* Vereinfacht. CLONE_THREAD bewirkt, dass die Signallieferung geteilt wird (was CLONE_SIGHAND benötigt, das die Signalhandler-Tabelle teilt).

** Vereinfacht. Es gibt sowohl SYS_fork- als auch SYS_clone-Systemaufrufe, aber im Kernel sind sys_fork und sys_clone beide sehr dünne Wrapper um dieselbe do_fork-Funktion, die selbst ein dünner Wrapper um copy_process ist. Ja, die Begriffe process , thread und task werden im Linux-Kernel ziemlich synonym verwendet.

Linux (und in der Tat Unix) bietet Ihnen eine dritte Option.


Die Suche nach dem Ende des Welthungers

Gentechnik-Techniken könnten eine wichtige Rolle bei der Sicherung der Zukunft der globalen Ernährungssicherheit spielen.

Viele Länder weltweit sind neben Übergewicht und Fettleibigkeit mit der doppelten Belastung durch Hunger und Unterernährung konfrontiert. Jeder dritte Mensch weltweit leidet derzeit an irgendeiner Form von Unterernährung. Tatsächlich ist es nicht ungewöhnlich, dass Menschen mit unterschiedlichen Formen der Unterernährung Seite an Seite leben.

Während weltweit mittlerweile mehr Menschen übergewichtig oder fettleibig als untergewichtig sind, leiden laut Global Food Security rund 795 Millionen Menschen täglich Hunger, während mehr als zwei Milliarden Menschen lebenswichtige Mikronährstoffe (z. B. Eisen, Zink, Vitamin A) fehlen. Auswirkungen auf ihre Gesundheit und Lebenserwartung. Darüber hinaus sind fast ein Viertel aller Kinder unter fünf Jahren verkümmert, mit verminderten körperlichen und geistigen Fähigkeiten, und weniger als ein Drittel aller Kleinkinder in 60 Ländern mit niedrigem und mittlerem Einkommen erfüllen die für Wachstum erforderlichen Mindeststandards für die Ernährungsvielfalt.

Tatsächlich ist die Ernährungssicherheit immer noch ein wachsendes Problem. Aber neue Pflanzenzüchtungstechniken könnten die Entwicklung neuer Eigenschaften bei Nutzpflanzen fördern und beschleunigen und dazu beitragen, Produktion und Erträge zu steigern. Insbesondere Genome-Editing (GE)-Techniken, insbesondere eine Methode namens Clustered Regularly Interspaced Short Palindromic Repeats (Crispr-Cas), könnten tatsächlich dazu beitragen, die Landwirtschaft produktiver und umweltfreundlicher zu machen.

Bisher wurden Technologien wie chemische Düngemittel, Pestizide, Herbizide, moderne Landmaschinen und künstliche Selektion zur Steigerung der Produktion eingesetzt. Neuere Technologien verfolgen jedoch den Ansatz, die Pflanze selbst zu verändern, anstatt etwas darauf zu sprühen. Die erste Iteration davon war mit genetischer Modifikation. Hier wird Gentechnik eingesetzt, um etwas hinzuzufügen und so seine genetische Struktur zu verändern.

Techniken der genetischen Modifikation (GM) erhöhten den Einsatz, indem sie einen viel größeren Pool an genetischer Variation zur Verfügung stellten. Dies bedeutete, dass die gentechnisch veränderten Pflanzen wünschenswerte Eigenschaften wie Trockenheitsresistenz aufweisen könnten.

Rene Custer, regulatorischer und verantwortlicher Forschungsmanager bei Vlaams Instituut voor Biotechnologie, einem Biotech-Institut mit Sitz in Belgien, argumentiert: „Herkömmliche Techniken wie die genetische Veränderung sind weniger zuverlässig und bedeuten auch lange Wartezeiten, weil die Techniken einfacher sind: nämlich die Kombination verschiedener Sorten zu schau, was du am Ende hast. Es war immer blind und zufällig.“

Jetzt treten neuere Pflanzenzüchtungstechniken in den Vordergrund, die als zuverlässiger gelten. Dies könnte ein Mittel sein, um die Entwicklung neuer, wünschenswerterer Eigenschaften in der Pflanzenzüchtung weiter zu steigern und zu beschleunigen. GE-Techniken könnten dazu beitragen, die Landwirtschaft sowohl produktiver als auch umweltfreundlicher zu machen – beides trägt dazu bei, die Nahrungsmittelarmut zu beenden und die Umweltauswirkungen der Landwirtschaft zu verringern (siehe Kasten).

„Pflanzenzüchtung und andere landwirtschaftliche Technologien haben in den letzten Jahrzehnten erheblich zur Verringerung des Hungers beigetragen“, sagt Matin Qaim von der Universität Göttingen. In seinem 2019 erschienenen Papier „Food Security: Impact of Climate Change and Technology“ zitiert er mehrere Autoren, die sagen, dass GE „zu höheren Ernteerträgen, einem geringeren Einsatz von chemischen Düngemitteln und Pestiziden, einer besseren Widerstandsfähigkeit der Pflanzen gegen Klimastress, weniger Ernteverluste und nahrhaftere Lebensmittel“.

Nigel Halford, Pflanzenwissenschaftler am britischen Rothamsted Research, einer der ältesten landwirtschaftlichen Forschungseinrichtungen der Welt, untersucht den Unterschied zwischen Gentechnik und Gentechnik. „Bei GM kommt ein zusätzliches Gen hinzu – es gibt eine Modifikation. Aber bei GE wird das Endprodukt, obwohl es eine Änderung innerhalb des Prozesses geben könnte, nicht genetisch verändert, sondern modifiziert, um eine Eigenschaft einzuführen oder herauszunehmen.

„Die Idee hinter der Bearbeitung besteht darin, etwas herauszustreichen, was man nicht möchte, oder etwas einzuführen, das man tut. Es geht um Mutation, anstatt etwas völlig Neues einzuführen“, sagt er.

Als Beispiel nennt er Raps, der toleranter gegenüber Herbiziden gemacht werden kann, wenn ihm ein Enzym zugesetzt wird, damit es nicht auf Herbizide reagieren kann. Diese Technik, die Fähigkeit der Pflanze zu kastrieren, auf etwas zu reagieren, kann auch auf die Entfernung von Allergenen und anderen negativen Faktoren angewendet werden.

„Obwohl Sie dies auch mit GM-Techniken tun könnten, wäre das Endergebnis nicht 100-prozentig zuverlässig – eher eine Reduzierung als eine Entfernung oder Hinzufügung von etwas. Bei Modifikationen ist das Endergebnis besser, weil die ursprüngliche Struktur der Anlage nicht hinzugefügt, sondern nur modifiziert wurde“, erklärt er.

Adaptive symbiotische Technologie

Die adaptive symbiotische Technologie ist eine weitere Entwicklung, die viel zur Lösung der Nahrungsmittelarmut beitragen könnte. Im Wesentlichen erzeugt diese Technologie nicht-toxische und nicht-pathogene Mikroben in bestimmten Arten von symbiotischen Pilzen, die als Endophyten bekannt sind. Sie können zusammen mit anderen Pflanzen wachsen und ihnen helfen, nährstoffeffizienter zu sein und Umweltstress wie Trockenheit, Salzgehalt und Temperatur zu tolerieren. Dies ist eine Technik, die auf eine Vielzahl von Getreide, Hülsenfrüchten, Gemüse und Industriepflanzen angewendet werden kann. Vereinfacht gesagt ist dies im Grunde die Nutzung des bereits Vorhandenen durch symbiotische oder natürliche Interaktionen zwischen Pflanzen und Mikroorganismen.

„Die symbiotische Technologie verwendet Pilze, die mit Pflanzen interagieren, um die Nährstoffe zu verändern, den Pflanzenertrag und die Gesamtqualität der Ernte zu erhöhen“, sagt Nigel Halford, Pflanzenwissenschaftler bei Rothamsted Research. „Der Bauer kann diese Mikroben kaufen, um sie selbst der Ernte hinzuzufügen.“

Eine aktiv daran beteiligte Firma ist die in den USA ansässige Firma Adaptive Symbiotic Technologies (AST). Es hat mit Saatgutunternehmen und Züchtern in Australien, den Niederlanden, Kenia, Argentinien und Indien zusammengearbeitet, um seine Produktlinie an verschiedenen Pflanzen zu testen und zu testen.Die besten Ergebnisse stammen aus Indien, wo AST die Technologie unter Hochstressbedingungen eingesetzt und gute Ergebnisse erzielt hat. Die getesteten Pflanzen umfassen Weizen, Hirse, Okra, Baumwolle, Mais und Reis. Die Studien wurden durch Zuschüsse des US-India Science and Technology Endowment Fund und der United States Agency for International Development unterstützt.

Bei erfolgreicher Anwendung in der Agrarindustrie würde diese Technologie nicht nur die Nahrungsmittelarmut verringern, indem sie zum zukünftigen Erfolg der Kulturpflanzen beiträgt, sondern auch die Abhängigkeit von Chemikalien verringern. Und obwohl die Technologie zusammen mit Chemikalien verwendet werden kann, hat sie sich als effektiver erwiesen, wenn die Chemikalien entfernt wurden. Versuche in gemäßigten Klimazonen zeigten beispielsweise, dass die Produktion um 3 bis 20 Prozent gestiegen ist. Somit bietet diese Technologie möglicherweise ein Mittel, um auf umweltfreundlichere Weise robustere Pflanzen zu erzeugen, indem die Chemikalien entfernt werden.

Obwohl es viele GE-Techniken gibt, ist eine entstanden, die wahrscheinlich im Mittelpunkt stehen wird. Das im Jahr 2012 entwickelte Crispr-Cas-System ist sowohl relativ einfach zu bedienen als auch effektiv, sagen Experten.

„Crispr-Cas ist eine Technik, die in Pflanzenforschungs- und Züchtungsunternehmen eine sehr breite Akzeptanz findet. Obwohl es einige Arten der Genbearbeitung gibt, scheint Crispr-Cas diejenige zu sein, die am besten und effizientesten zu funktionieren scheint“, bemerkt Custer. „Grundsätzlich wollen Pflanzenzüchter ihre Sorten verbessern, um robuster zu sein, Resistenzen zu haben, Dinge herauszunehmen, die nicht gewollt sind, und Dinge einzuführen, die es sind. Daher ist es für sie sinnvoll, die einfachste und effizienteste Technik zu verwenden. Das ist zum größten Teil Crispr-Cas.“

Crispr-Cas wird bereits verwendet, wobei etwa 60 Pflanzenarten verändert wurden, um Resistenz gegen Krankheiten, Trockenheit und andere Umweltbedingungen zu bieten. Es wurde auch verwendet, um Pflanzen mit bestimmten Eigenschaften wie ballaststoffreichem Weizen zu erzeugen oder Allergene wie Gluten zu entfernen. Es wurden auch neue wünschenswerte Eigenschaften eingeführt, wie zum Beispiel bei schwer zu züchtenden Pflanzen wie Bananen.

Qaim nennt „vielfältige“ Beispiele für geneditierte Pflanzen am oder kurz vor dem Ende der Forschungspipeline. Dazu gehören pilzresistenter Weizen-​, Reis-, Bananen- und Kakao-​Dürretoleranter Reis, Mais und Sojabohnen-​bakterienresistenter Reis und Bananensalz-​toleranter Reis sowie virusresistenter Maniok und Bananen.

In der Zwischenzeit zitierte ein Artikel von Janina Metje-Sprink und anderen Forschern mit dem Titel „Genom-editierte Pflanzen im Feld“ die Verwendung von Crispr-Cas im Genom von mindestens 40 verschiedenen Pflanzen, einschließlich Nischenkulturen wie Stachelbeere und Wassermelone. In dem Papier heißt es, dass die größten Feldversuche mit gentechnisch veränderten Pflanzen für Reis existieren und in China stattfanden, wo die Größe der Reiskörner erhöht wurde. Unterdessen führten Versuche mit Mais zu höheren Ernteerträgen. Auch Tomaten wurden getestet, und es wurde nachgewiesen, dass sie sich selbst beschneiden und größer oder kleiner gemacht werden.

Es gibt eindeutig Beispiele dafür, wo dies von Vorteil war, aber was sind die Risiken, wenn überhaupt? Zum einen bestehen Risiken im Zusammenhang mit dem Prozess selbst und zum anderen Risiken im Hinblick auf das Endprodukt mit neuen Eigenschaften.

Qaim sagt, dass 30 Jahre Risikoforschung in Bezug auf GV-Pflanzen darauf hindeuten, dass es keine neuen Risiken im Zusammenhang mit dem Züchtungsprozess gibt und dass GV nicht von Natur aus riskanter sind als konventionell gezüchtete Pflanzensorten. Aber für Gen-Editing-Technologien wie Crispr-Cas gebe es noch keine lange Sicherheitsbilanz, sagt er, weil diese Technologien erst seit wenigen Jahren im Einsatz seien.

Da die bisher entwickelten Punktmutationen jedoch genetisch nicht von natürlichen Mutationen zu unterscheiden seien, seien neue Risikoarten im Zusammenhang mit dem Veränderungsprozess unwahrscheinlich.

Die zweiten Risikoarten, nämlich diejenigen, die sich auf ein bestimmtes neues Merkmal beziehen, seien anders, sagt er. „Jede neue Eigenschaft kann unterschiedliche Auswirkungen haben. Die Herbizidtoleranz wird sich beispielsweise in ihren Auswirkungen auf Umwelt und Gesundheit von Merkmalen wie Trockenheitstoleranz oder erhöhten Vitaminspiegeln unterscheiden. Merkmalsspezifische Risiken können nur von Fall zu Fall beurteilt werden.“

Aus diesem Grund ist Qaim der Ansicht, dass eine Regulierung nach Merkmalen und nicht nach Prozessen sinnvoller wäre. Tatsächlich haben viele Länder, darunter die USA und Australien, beschlossen, gentechnisch veränderte Pflanzen genauso zu regulieren wie konventionell gezüchtete Pflanzen.

In der Europäischen Union hat der EU-Gerichtshof jedoch 2018 entschieden, dass gentechnisch veränderte Pflanzen automatisch als gv gelten, d. h. es gelten die gleichen strengen Regeln und regulatorischen Verfahren wie für gv-Pflanzen.

Die Reaktion des Vereinigten Königreichs bleibt abzuwarten. Im Juli 2019 versprach Premierminister Boris Johnson, Großbritannien nach dem Brexit vom EU-Gentechnik-Regime zu befreien. „Lasst uns den außergewöhnlichen biowissenschaftlichen Sektor Großbritanniens von den Regeln der Antigenetik befreien. Lasst uns die fäuleresistenten Pflanzen entwickeln, die die Welt ernähren werden“, sagte er damals.

Halford kommentiert: „In den USA gibt es keine Regulierung für GE. In Europa fallen sowohl GM als auch GE in die gleiche Kategorie, die als „eine Veränderung der DNA, die nicht auf natürliche Weise auftreten könnte“ definiert wird. Daher ist es einfacher, GV und GV nach Europa zu importieren als sie anzubauen. Aber sie werden bereits verwendet Mais, Sojabohnen und Rapsöle werden routinemäßig als Tierfutter verwendet.“

Unterschiedliche Regulierungen haben wahrscheinlich Auswirkungen darauf, wo gentechnisch veränderte Lebensmittel aufgenommen werden und wo nicht. Die fehlende Regulierung in den USA könnte insofern ein Problem darstellen, als ein gentechnisch verändertes Lebensmittel mit einem anderen vermischt und nicht erfasst werden könnte.

„Eine der Sorgen ist, dass, wenn GE in den USA nicht reguliert ist, Sie möglicherweise etwas bekommen, bei dem die ursprüngliche GE mit etwas anderem vermischt wurde, aber etwas anderes nicht registriert oder aufgezeichnet wurde Am Ende gibt es keine Möglichkeit zu wissen, wie Sie dorthin gekommen sind“, sagt Halford.

In Europa hingegen könnte die weitere Entwicklung dadurch behindert werden, dass der Unterschied zwischen GV- und GV-Lebensmitteln nicht erkannt wird.

Ein interessanter Trend ist, dass Bereiche, in denen Nahrungsmittelarmut vorherrscht, konzeptionell offener für Gentechnik waren. Insbesondere Argentinien und Brasilien sind bedeutende Produzenten von GV-Pflanzen, und GV wird auch in Asien angebaut. In Afrika hat sich die Entwicklung langsamer entwickelt, aber Sudan, Ägypten und Kenia haben alle einen Anfang gemacht. „Man kann mit ziemlicher Sicherheit sagen, dass dort, wo GM existiert, GE folgen wird“, kommentiert Halford.

Eine weitere bemerkenswerte Möglichkeit besteht darin, dass GM zwar weitgehend von multinationalen Unternehmen übernommen wurde, GE jedoch relativ einfach durchzuführen ist und daher eine Reihe von KMU beteiligt sind. Daraus folgt, dass praktische Einzelfallanwendungen zur Linderung der Nahrungsmittelarmut schneller in den Vordergrund treten könnten als bei einem großen multinationalen Unternehmen, bei dem es auf die Größe ankommt.

Dazu muss die Technologie mit lokalen Kontexten kombiniert werden, sodass sie je nach Standort, Betriebsgröße, Bauernbildung, Zugang zu Informationen und Regierungsrichtlinien und deren Durchsetzung eingesetzt werden.

Qaim sagt: „Es ist wichtig zu verstehen, ob mit GE entwickelte Pflanzen von Kleinbauern erfolgreich genutzt werden können.“ Er schaut sich gentechnisch veränderte Lebensmittel an, um zu sehen, wie sich dies mit gentechnisch veränderten Lebensmitteln auswirken könnte, und sagt, dass Landwirte in Entwicklungsländern mehr von gentechnischer Herkunft profitieren könnten als Landwirte in entwickelten Ländern, die bereits von Gentechnik profitieren.

„Die Gründe sind zweifach“, erklärt er. „Erstens leiden Landwirte, die in tropischen und subtropischen Klimazonen tätig sind, oft unter höheren Schädlingsschäden, als durch die Einführung von GV reduziert werden können. Daher sind die effektiven Ertragszuwächse tendenziell höher als bei Landwirten, die in gemäßigten Zonen arbeiten. Zweitens sind die meisten gentechnisch veränderten Lebensmittel in Entwicklungsländern nicht patentiert, so dass die Saatgutpreise niedriger sind als in Industrieländern, wo Patentschutz viel häufiger ist.“

Die Schlussfolgerung ist, dass eine mangelnde Nachfrage aus Industrieländern aufgrund ihrer bereits bestehenden Beteiligung an Gentechnik dazu führen könnte, dass sich die Hersteller von Gentechnik in Entwicklungsländer wenden, in denen die Technologie stärker nachgefragt wird und auch größere Auswirkungen hätte.

Es besteht jedoch auch die Notwendigkeit, den Einsatz von GE in Verbindung mit effektiven Ernte- und Nacherntepraktiken in Betracht zu ziehen, um den Lebensmittelverlust zu minimieren. Effektive Lager- und Konservierungspraktiken tragen beispielsweise dazu bei, den Wert einer Ernte zu steigern und hochwertige Produkte zu identifizieren. Die Kombination von Faktoren trägt zusammen, um den wirtschaftlichen Gewinn für die Verarbeiter zu verbessern und eine lange Haltbarkeit und eine bessere Vermarktung verfügbarer Lebensmittel zu wettbewerbsfähigen Preisen zu gewährleisten.

„GE und insbesondere Crispr-Cas beantworten einige der Probleme rund um den Klimawandel und die Ernährungssicherheit“, sagt Custer. „Da spielt auch das eigentliche Pflanzenmanagement eine Rolle. Gentech-Pflanzen sind nur ein Teil eines komplexen Puzzles.“

Qaim schlussfolgert: „Natürlich erfordert eine nachhaltige Ernährungssicherheit mehr als nur gentechnisch veränderte Pflanzen. Vor dem Hintergrund des weiteren Bevölkerungswachstums, des Klimawandels und einer schwindenden natürlichen Ressourcenbasis wäre es jedoch unverantwortlich, die Potenziale der modernen Pflanzenbiotechnologie nicht zu nutzen.“

Auswirkungen des Klimawandels

Ernährungssicherheit ist ein langfristiges Thema. Inmitten der Covid-19-Pandemie haben die UN-Stiftung, führende Lebensmittelhersteller wie Unilever, Nestlé und PepsiCo und andere wie Bauernorganisationen, Akademiker und zivilgesellschaftliche Gruppen an die Führer der G7 und G20 geschrieben: und an andere Länder, um sie zu drängen, in die Nahrungsmittelproduktion und -verteilung zu investieren. Sie sagen, dass eine umweltverträgliche Nahrungsmittelproduktion und der Schutz der Landwirte in den Industrie- und Entwicklungsländern von entscheidender Bedeutung sind.

Der Brief betonte auch die Notwendigkeit, in die ökologische und soziale Nachhaltigkeit des Lebensmittelsystems zu investieren. In der Praxis würde dies neue Investitionen bedeuten, um die Pflanzenproduktion hoch genug zu halten und sich darauf zu konzentrieren, die Pflanzen selbst so nahrhaft wie möglich zu machen.

Dies ist kein neues Thema. Die Ziele der Vereinten Nationen für nachhaltige Entwicklung von 2015 zielen darauf ab, den weltweiten Hunger bis 2030 zu beenden. Obwohl sich die Unterernährung in den letzten 15 Jahren aufgrund internationaler Bemühungen und Investitionen in die landwirtschaftliche und wirtschaftliche Infrastruktur halbiert hatte, herrscht im Jahr 2020 immer noch ein erhebliches Maß an Ernährungsunsicherheit wird wahrscheinlich durch Covid-19 noch verschlimmert.

Hinzu kommen die Auswirkungen des Klimawandels, bei denen Wetterextreme einen erheblichen Einfluss auf die Pflanzenproduktion haben können, während die Weltbevölkerung wächst und das Ergebnis ein Kampf ist, genug Nahrung für die Menschen zu bekommen, die sie brauchen. Viele sagen voraus, dass Länder um Nahrung und Wasser kämpfen werden.

Die Landwirtschaft trägt natürlich selbst zur globalen Erwärmung bei. In seinem Bericht „Climate Change and Land“ von 2019 sagte das IPCC, dass die Landwirtschaft etwa 25 Prozent der globalen Treibhausgasemissionen ausmacht.

Matin Qaim argumentiert in einem Papier „Rolle neuer Pflanzenzüchtungstechnologien für Ernährungssicherheit und nachhaltige landwirtschaftliche Entwicklung“: „Die zunehmende Intensität der landwirtschaftlichen Produktion hat ihre Probleme. Der Klimawandel wird sich wahrscheinlich durch steigende Durchschnittstemperaturen, Hitze- und Wasserstress und zunehmende Häufigkeit von Wetterextremen negativ auf die landwirtschaftliche Produktion auswirken.“

Qaim fügt hinzu: „Arme Menschen in Afrika und Asien werden von Klimakatastrophen am stärksten betroffen sein, nicht nur, weil sie besonders anfällig für Preis- und Einkommensschocks sind, sondern auch, weil viele von ihnen für ihren Lebensunterhalt von der Landwirtschaft abhängig sind.“


Angewandte wirtschaftliche Perspektiven und Politik

Angewandte wirtschaftliche Perspektiven und Politik bietet ein Forum, um aktuelle und aufkommende politische Fragen innerhalb eines wirtschaftlichen Rahmens zu behandeln, der die Entscheidungsfindungs- und Politikgestaltungsgemeinschaft informiert.

AEPP begrüßt Beiträge zur Ökonomie öffentlicher Politikthemen im Zusammenhang mit Landwirtschaft, Tier-, Pflanzen- und menschliche Gesundheit Energie Umwelt Ernährung und Verbraucherverhalten internationale Entwicklung Naturgefahren natürliche Ressourcen Bevölkerung und Migration sowie regionale und ländliche Entwicklung.

Zwei Kategorien von Artikeln werden veröffentlicht in AEPP, Empfohlene Artikel und eingereichte Artikel. Featured Articles werden von den Redakteuren und Mitgliedern der Redaktion angefordert. Darüber hinaus begrüßen wir Vorschläge von Autoren für Featured Articles (zwei bis drei Beiträge), Mini-Special Issues bestehend aus Featured Articles (vier bis sieben Papers) oder Special Issues bestehend aus Featured Articles (acht oder mehr Papers). . Weitere Informationen finden Sie auf der Seite Autorenrichtlinien.


Praktische Anwendungen des Change Managements

Es gibt nichts Schwierigeres in die Hand zu nehmen, gefährlicher zu führen oder unsicherer in seinem Erfolg, als die Führung bei der Einführung einer neuen Ordnung der Dinge zu übernehmen.—Niccolo Machiavelli

Eines der schwierigsten Probleme von Unternehmen ist der Umgang mit Veränderungen. In dem sich schnell verändernden, stark wettbewerbsorientierten Umfeld von heute wird die Fähigkeit, sich schnell, effizient und fast kontinuierlich zu verändern, die Gewinner von den Verlierern unterscheiden. Viele gesundheitsbezogene Organisationen werden verschwinden, weil sie sich nicht anpassen können. Darüber hinaus sind viele der Veränderungszwänge in Gesundheitsorganisationen unabhängig von technologischen Veränderungen. Dies bedeutet, dass Informatiker, die für den Wandel arbeiten, dies in Organisationen tun, die bereits durch andere Belastungen stark belastet sind.

Größere organisatorische Veränderungen beinhalten in der Regel viele verschiedene Arten und Ausmaße von persönlichen Verlusten für die Mitarbeiter in der Organisation. Veränderung erfordert zum Beispiel immer die Anstrengung, Neues zu lernen, was einen Zeit- und Energieverlust bedeutet, der an anderer Stelle hätte eingesetzt werden können. Obwohl einige die Möglichkeit zum Lernen begrüßen mögen, möchten viele von uns diese Zeit und Energie nicht investieren, es sei denn, wir sind mit den derzeitigen Regelungen unzufrieden oder sehen starke Vorteile der vorgeschlagenen Änderung. Ein Upgrade auf neue Software ist ein häufiges Beispiel, bei dem die zukünftigen Vorteile möglicherweise nicht ausreichen, um die kurzfristigen Investitionen, die zum Erlernen der neuen Programme erforderlich sind, aufzuwiegen.

Zweitens wollen die Menschen sich gut fühlen. Im Idealfall sind die Menschen in der Lage, stolz auf ihre Arbeit zu sein, sich für eine gut gemachte Arbeit verantwortlich zu fühlen, sich als Teil eines hochwertigen Unternehmens zu fühlen und das Gefühl zu haben, dass ihre Zeit eine gewisse Bedeutung hat. In vielen Arbeitssituationen erschweren die Arbeit selbst und die Unternehmenskultur es den Menschen, sich gut zu fühlen. In diesen ärmeren Situationen erfinden Menschen normalerweise Strategien, die ihnen helfen, sich besser zu fühlen, und diese Strategien beinhalten, ein gewisses Gefühl von Kontrolle, Zugehörigkeit und Bedeutung aus ihrer Arbeit zu gewinnen. Manchmal ist dies mit Opposition gegen das Management verbunden, in der Annahme, dass das Management immer nichts Gutes im Schilde führt. Häufiger sind die Beziehungen zwischen Arbeitern und Führungskräften nicht vollständig entfremdet. Dennoch sind die Strategien der Arbeiter, um “gute” Gefühle zu erreichen, dem Management unbekannt oder werden vom Management völlig missverstanden. Daher drohen Veränderungsinitiativen, unwissentlich und unbeabsichtigt, den Arbeitern schwere persönliche Verluste zuzufügen. Es überrascht nicht, dass die Arbeiter sich wehren und alles tun, um solche Veränderungsinitiativen zu sabotieren.

Drittens erfordern Veränderungsinitiativen oft große Verluste für das mittlere Management. Im Allgemeinen nehmen die Menschen an, dass Informationssysteme die Fähigkeit von Top-Führungskräften erhöhen, mehr über das Geschehen zu wissen und eine direktere Kontrolle auszuüben. Für den mittleren Manager bedeutet dies einen gravierenden Verlust an persönlicher und organisatorischer Bedeutung. Manchmal kämpfen mittlere Manager mit diesem Verlust. Jede bedeutende organisatorische Veränderung beinhaltet eine Änderung von Gewohnheiten, dh eine Änderung der Art und Weise, wie wir unsere Arbeit tatsächlich erledigen. Dies beinhaltet normalerweise Änderungen in der Art und Weise, wie wir mit Menschen und unseren Tools interagieren. Neue Systeme erfordern, dass wir neue Verhaltensweisen erlernen.

Arten von Änderungen

Veränderungen in einer Organisation können oft als eine von vier Arten identifiziert werden, wobei es durchaus möglich ist, dass sie sich überschneiden:

Betriebsänderungen die Art und Weise beeinflussen, wie der laufende Geschäftsbetrieb durchgeführt wird, beispielsweise die Automatisierung eines bestimmten Bereichs.

Strategische Veränderungen erfolgen in der strategischen Geschäftsausrichtung, z.B. Wechsel vom stationären zum ambulanten Schwerpunkt.

Kulturelle Veränderungen beeinflussen die grundlegenden Organisationsphilosophien, nach denen das Geschäft geführt wird, z. B. die Implementierung eines Systems zur kontinuierlichen Qualitätsverbesserung (CQI).

Politische Veränderungen in der Personalbesetzung erfolgen in erster Linie aus politischen Gründen unterschiedlicher Art, wie sie beispielsweise auf oberster Patronage-Ebene in Regierungsbehörden vorkommen.

Diese vier verschiedenen Arten von Veränderungen haben in der Regel ihre größten Auswirkungen auf verschiedenen Ebenen der Organisation. Operative Veränderungen haben beispielsweise die größten Auswirkungen auf die unteren Ebenen der Organisation, direkt in der Schusslinie. Menschen, die auf den oberen Ebenen arbeiten, bemerken möglicherweise nie Veränderungen, die denjenigen, die versuchen, die Veränderungen umzusetzen, erheblichen Stress und Aufruhr verursachen. Andererseits sind die Auswirkungen politischer Veränderungen typischerweise auf den höheren Organisationsebenen am stärksten zu spüren. Wie der Name schon sagt, werden diese Veränderungen typischerweise nicht aus ergebnisorientierten Gründen vorgenommen, sondern aus Gründen wie parteipolitischer oder interner Machtkämpfe. Wenn diese Veränderungen in einer relativ bürokratischen Organisation stattfinden, wie es oft der Fall ist, bemerken die Mitarbeiter unten die Veränderungen an der Spitze oft kaum. Die Patienten werden gesehen und die Böden werden genauso gereinigt wie zuvor. Der entscheidende Punkt ist, dass die Leistung nicht die Grundlage der Änderung war, daher sind die Darsteller nicht sehr betroffen.

Mikroänderungen und Megaänderungen

Bei der Kommunikation über Veränderungen sind die Modelle von Watzlawick und Golembiewski tendenziell zu abstrakt oder schwer zu erklären. Ein praktischeres Modell, das wir häufig verwenden, unterteilt Änderungen in Mikroveränderungen und Megaveränderungen, ohne große Bemühungen um ausgefeilte Definitionen. In erster Näherung kann folgendes Schema verwendet werden, um zwischen den beiden zu unterscheiden:

Mikroänderungen—Unterschiede im Grad

Megaänderungen𠅊rtenunterschiede

Am Beispiel eines Informationssystems wären Modifikationen, Erweiterungen, Verbesserungen und Upgrades typischerweise Mikroänderungen, während ein neues System oder eine sehr große Überarbeitung eines bestehenden Systems eine Megaänderung wäre. Dieses Schema funktioniert überraschend gut für die Kommunikation innerhalb von Organisationen, solange wir uns daran erinnern, dass die Mikroveränderung einer Person oft die Megaveränderung einer anderen Person ist. Während also die Systemdesigner denken, dass sie eine kleine Änderung vornehmen, um das Gesamtsystem zu verbessern, kann ein einzelner Endbenutzer die Änderung als Megaänderung sehen und sich vehement dagegen wehren. Beim Entwerfen der Gesamtstrategie “people” für jedes System ist es wichtig, von Anfang an eine Vielzahl von Personen einzubeziehen, um klar zu verstehen, wie Gruppen in der Organisation funktionieren und wie die Arbeit wirklich erledigt wird.

Die Besetzung der Charaktere

Bei jeder gegebenen Veränderung können Menschen eine breite Palette von Rollen einnehmen, die ihre Wahrnehmung der Veränderung und ihre Reaktionen darauf stark beeinflussen. Dies sind Rollen wie Champion, Endbenutzer, Entwickler/Builder, wachsamer Beobachter, Blockierer und dergleichen. Wie auf der Bühne können manche Menschen gelegentlich mehr als eine Rolle spielen. In anderen Fällen sind die Rollen eindeutig.Wenn wir nicht sowohl die Akteure als auch ihre Rollen in einer Veränderungssituation klar identifizieren, riskieren wir, Entscheidungen zu treffen und Maßnahmen zu ergreifen, die auf Verallgemeinerungen basieren, die für einige der Hauptakteure nicht zutreffen.

Ein häufig verwendeter Überblicksbegriff für die verschiedenen Rollen ist Stakeholder. Die Stakeholder haben ein gewisses Interesse oder Interesse an der Qualität sowohl des Change- als auch des Change-Implementierungsprozesses. Die Rolle der Stakeholder unterliegt einem Wandel, insbesondere während eines sich über einen längeren Zeitraum erstreckenden Veränderungsprozesses.

Für diejenigen, die Änderungen implementieren, sind die folgenden Schritte von entscheidender Bedeutung:

Um zu erkennen, welche Rollen sie selbst im Prozess einnehmen

Um zu erkennen, welche Rollen die anderen am Prozess beteiligten Personen spielen, achten Sie darauf, mehrere Rollen zu erkennen

Um sorgfältig zu identifizieren, welche Rolle spricht, wenn man mit denen kommuniziert, die mehrere Rollen spielen

Um während des gesamten Prozesses zu überwachen, ob sich Rollen ändern

Widerstand zur Aenderung

Es ist leicht, Dinge zu ändern, die niemanden interessiert. Es wird schwierig, wenn Sie beginnen, die Dinge zu ändern, die den Menschen wichtig sind—oder wenn sie beginnen, sich um die Dinge zu kümmern, die Sie ändern.—Lorenzi und Riley

Der Widerstand gegen Veränderungen ist ein anhaltendes Problem. Sowohl auf individueller als auch auf organisatorischer Ebene beeinträchtigt der Widerstand gegen Veränderungen die konzertierten Bemühungen zur Leistungssteigerung. Viele unternehmerische Veränderungsbemühungen wurden mit enormen Kosten eingeleitet, nur um durch den Widerstand der Mitarbeiter der Organisation gestoppt zu werden. Organisationen als Ganzes zeigen auch ein ähnliches Verhalten wie Einzelpersonen, wenn sie mit der Notwendigkeit konfrontiert sind, sich zu ändern.

Die Beziehung zwischen individuellem und organisatorischem Widerstand gegen Veränderungen ist wichtig. Eine Organisation ist ein komplexes System von Beziehungen zwischen Menschen, Führungskräften, Technologien und Arbeitsprozessen. Aus dieser Interaktion entstehen organisationales Verhalten, Kultur und Leistung.

Diese auftauchenden Eigenschaften und Verhaltensweisen sind in zwei Richtungen eng mit den Interaktionen auf niedrigerer Ebene verbunden. Organisatorischer Widerstand gegen Veränderungen ist eine emergente Eigenschaft, und individueller Widerstand gegen Veränderung kann zu organisatorischem Widerstand führen. Eine sich selbst verstärkende Schleife zunehmenden Widerstands kann sich entwickeln, wenn Individuen ein Umfeld schaffen, in dem Widerstand gegen Veränderungen die Norm ist. Dieses Umfeld wiederum fördert den Widerstand der einzelnen Mitarbeiter gegen Veränderungen. Die sich selbst verstärkende Natur dieser Schleife kann enorm mächtig sein und wiederholte Versuche, aus ihr auszubrechen, zunichte machen.

Studien zur Systemdynamik zeigen häufig, dass große Probleme, die alle für extern hielten, in Wirklichkeit die unbeabsichtigten Folgen interner Politiken sind. Die grundlegende Dynamik dieses Phänomens besteht darin, dass die Organisation aus einem Netzwerk zirkulärer Kausalprozesse besteht: A beeinflusst B, der dann C beeinflusst, der wiederum A beeinflusst, d.h. die Schlange beißt sich in den Schwanz. Das Verständnis dieser internen Organisationsdynamiken ist eine Voraussetzung für die Führung effektiver Veränderungsprozesse.

Rituale des Übergangs

Jede Veränderung ist mit Verlust verbunden. In vielen Fällen erfordert Veränderung zumindest, dass der Einzelne vertraute Routinen aufgibt. In einigen Fällen ist der Verlust erheblich und beeinträchtigt Position, Macht, Netzwerke von Freunden und Kollegen usw. In all diesen Situationen können Übergangsrituale entscheidend sein, um Menschen zu helfen, zu trauern und das Alte loszulassen und zum Neuen überzugehen.

Die Strategien zur Überwindung von Veränderungsbarrieren sind sehr vielfältig und berühren jeden Aspekt der Organisation. Keine Organisation kann alle Strategien gleichzeitig oder auch nur in kurzer Zeit anwenden. Ein besserer Ansatz besteht darin, sich auf ein oder zwei zu konzentrieren, bis sie Teil der normalen Arbeitsweise werden, d. h. bis sie sich in den Gewohnheiten der Menschen verwurzeln. Erst dann ist es an der Zeit, eine andere Strategie einzuführen. Auf diese Weise verbessert die Organisation im Laufe der Zeit nach und nach ihre Fähigkeit, schnell zu lernen, sich an neue Bedingungen anzupassen und Veränderungen anzunehmen.


Mehrere Binnenmarkte

Je höher die organisatorische Ebene ist, auf der Führungskräfte ein Problem oder einen Bedarf definieren, desto größer ist die Wahrscheinlichkeit einer erfolgreichen Umsetzung. Gleichzeitig ist jedoch die Erfolgswahrscheinlichkeit umso größer, je näher die Definition und Lösung von Problemen oder Bedürfnissen beim Endnutzer ist. Im Lichte dieses scheinbaren Paradoxons müssen Implementierungsmanager ihre internen Marketingpläne erstellen.

Da diese Manager die Personen oder Gruppen identifizieren, deren Akzeptanz für den Erfolg einer Innovation entscheidend ist, müssen sie auch festlegen, an wen sie sich wann und mit welchen Argumenten wenden. Top-Management und Endnutzer müssen sich für die Innovation einsetzen, um erfolgreich zu sein, aber die Vermarktung einer Idee an diese beiden Gruppen erfordert sehr unterschiedliche Ansätze. Wie also kann ein Implementierungsmanager die allgemeine Akzeptanz einer Innovation aus einem so breiten Kreis fördern? Wir glauben, dass diese Führungskraft die neue Technologie aus der Perspektive jeder Gruppe betrachten und entsprechend planen muss.

Das Top-Management, das sich am meisten mit den wahrscheinlichen Auswirkungen einer Innovation auf das Endergebnis beschäftigt, ist es gewohnt, Vorschläge zu erhalten, die Rendite und Amortisationen angeben. Viele der heutigen computergestützten Technologien lassen sich jedoch aus traditionellen finanziellen Gründen nicht rechtfertigen, können jedoch für die Zukunft eines Unternehmens von entscheidender Bedeutung sein. Angesichts der wachsenden Forderungen nach einer besseren Bewertung des Wertes von Robotern, CAD und computerintegrierter Fertigung durch den Berufsstand des Rechnungswesens beginnen einige Unternehmen, die Grenzen traditioneller Investitionsrechnungsmodelle zu erkennen. 1

Als GE seine hochmoderne maschinelle Geschirrspülanlage errichtete, rechtfertigte es die Kosten ursprünglich mit Einsparungen im Laufe der Zeit, aber das Werk hat sich in unerwarteter Weise aus der Investition ausgezahlt. Die Qualität des Produkts verbesserte sich, niedrigere Herstellungskosten führten zu einer Ausweitung des Marktanteils und das Werk erwies sich als Produktionsstandort für andere Produkte. Jedes Mal, wenn Manager solche nicht-traditionellen Vorteile dokumentieren, erleichtern sie es später, ähnliche Investitionen zu rechtfertigen.

Top-Führungskräfte können auch von strategischen Überlegungen beeinflusst werden. Als die großtechnische Automatisierung in das Geschäft mit großen Dampfturbinengeneratoren von GE eingeführt wurde, wurde die Innovation aufgrund der sich ändernden Geschäftsanforderungen an das Top-Management verkauft: eine Verlagerung von der Herstellung großer, einzigartiger Produkte hin zur Herstellung von Kleinteilen. Die neuen Systeme trugen auch dazu bei, die kontinuierlichen Qualitätsverbesserungen voranzutreiben, die erforderlich sind, um den Betrieb wettbewerbsfähig zu halten, wenn der derzeit schleppende Markt wiederbelebt wird.

Das Top-Management für neue Technologien zu verkaufen – ohne gleichzeitige Einbindung der Nutzerorganisationen in den Entscheidungsprozess – reicht nicht aus. Ebenso wichtig ist es für die Nutzer einer Innovation, die „Eigentümerschaft“ der Technologie zu entwickeln. Die Bedeutung dieses Begriffs hängt stark vom Umfang des Projekts ab. Obwohl es offensichtlich unmöglich ist, alle Nutzer in die Auswahl und/oder Entwicklung einer Innovation einzubeziehen, ist dies keine Entschuldigung, ihre Vertreter nicht einzubeziehen.

Vielleicht noch wichtiger ist es, den Wissenstransfer vom alten Betrieb, in dem die Leute die Materialien und das Produkt sehr gut kannten, auf den neuen Prozess, den Außenstehende zunächst entwerfen und betreiben können, einzuplanen. Die Entwickler des neuen Verfahrens (insbesondere wenn es sich um Computersoftware handelt) kennen ihre Werkzeuge oft sehr gut, aber selten verstehen sie die Materialien und Prozesse, auf die ihre Software angewendet wird, sowie die Menschen in der Fabrik, mit denen sie gearbeitet haben beides seit Jahren. Zumindest sollten Manager einen Mechanismus und Zeit bereitstellen, damit dieses Wissen vom erfahrenen Mitarbeiter zum Entwickler fließen kann.

Ein Beispiel für eine gut entwickelte Eigenverantwortung ist der Fall einer Marketingorganisation, die kurz davor steht, von manuellen Akten zu einem elektronischen Ablage-, Messaging- und Datenabrufsystem zu wechseln, das sowohl von Account Officers als auch von Sekretärinnen verwendet wird. Die Manager beschlossen, sich die Zeit zu nehmen, es gleich beim ersten Mal richtig zu machen, anstatt es noch einmal zu machen. Der Projektleiter richtete ein Gremium aus gewählten Vertretern aller betroffenen Gruppen ein. Dieses Gremium traf sich regelmäßig, um zunächst das richtige Softwarepaket auszuwählen und dann, als sich abzeichnete, dass sie ihr eigenes System bauen mussten, um alle gewünschten Funktionen zu erhalten, zu dessen Struktur und Inhalt beratend tätig.

Das Ergebnis war ein erfinderisches, gut akzeptiertes und weit verbreitetes System. Darüber hinaus betrachteten die Benutzer die kleineren Probleme als Fehler, die behoben werden mussten unsere System. Ein Manager sagte uns: „Die Benutzer wollten es, also haben sie es gebaut.“

Ausschlaggebend für den Erfolg dieses Projekts war die Wahl der Meinungsführer unter den Nutzern für die Beteiligung. Manager, die Veränderungen herbeigeführt haben, wissen seit langem, dass die Meinungen einiger weniger Führungskräfte die Geschwindigkeit und das Ausmaß der Verbreitung einer Innovation maßgeblich beeinflussen. Die Grundlage für Führung unterscheidet sich von Organisation zu Organisation, aber diese Führungskräfte sind normalerweise nicht schwer zu identifizieren. Häufig nehmen sie ihren Einflussbereich aufgrund technischer Fähigkeiten ein, nicht aufgrund einer formalen Position.

Meinungsführer sind jedoch nicht unbedingt die die meisten erfahrene Bediener. Verhaltenswissenschaftliche Studien haben gezeigt, dass Menschen bei solchen Führungskräften häufig nach zwei Arten von Glaubwürdigkeit suchen: „Sicherheits“-Glaubwürdigkeit (diese Person ist wie ich genug, um ihrer Meinung zu vertrauen) und „technische“ Glaubwürdigkeit (diese Person weiß, wovon sie spricht) . Jemand, dessen technische Fähigkeiten so überlegen sind, dass Anhänger keine Hoffnung auf Nachahmung haben können, kann zu weit außerhalb der Normen einer Gruppe liegen, um ein echter Meinungsführer zu sein.

In der eben beschriebenen Marketingorganisation weigerte sich ein Senior Account Manager, das neue elektronische System zu verwenden. Die Systemimplementierer waren zunächst alarmiert, stellten dann aber fest, dass diese Person kein Meinungsführer war. Ihre Bemühungen flossen um ihn herum, ungehindert von seinem Widerstand. Sechs Monate, nachdem alle anderen auf das System eingestiegen waren, kapitulierte er, endlich von seinem Nutzen überzeugt.


INTERDISZIPLINÄRE TEAMARBEIT UND FÄHIGKEITEN

Das Pflegeteam besteht aus Ärzten verschiedener Fachrichtungen, Pflegepersonal, Physiotherapeuten, Radiologen und Röntgentechnikern, Apothekern, Medizinstudenten und anderem Personal. Die Zusammensetzung variiert je nach Zielsetzung der Teams. Beispiele sind Schlaganfall-Management-Teams, Trauma-Teams, Interventionsteams bei akutem Koronarsyndrom usw. Die Ausbildung jedes Teammitglieds wird von seiner eigenen Disziplin bestimmt. Daher ist es notwendig, sie auf integrierte Weise zusammenzubringen, um zu lernen, wie man einen Patienten mit komplexen medizinischen Problemen behandelt. Keine Disziplin ist wichtiger als die andere. Jeder hat eine Rolle zu spielen. In simulierten Übungen mit Teams lernen die Mitglieder, sich gegenseitig nicht auf die Zehen zu treten.” Sie werden sich ihrer synergetischen Rollen bewusst. Es muss auch eine gewisse Flexibilität zu verschiedenen Zeitpunkten der Entscheidungsfindung und des Eingreifens gegeben sein. Teamfähigkeit und zwischenmenschliche Kommunikationstechniken sind wesentliche Bestandteile eines solchen Trainings und Trainings.[13�]

Die Simulationstrainer sind oft leitende Angestellte, die einen guten Überblick über den gesamten teambasierten Ansatz haben. Sie müssen in der Lage sein, die Gruppendynamik und Interaktion innerhalb der von ihnen trainierten Teams objektiv zu betrachten und wertvolles Feedback zu geben. Sie bewerten die Leistung des Teams in Echtzeit und können Checklisten mit Aktivitäten, Aktionen und relevanten menschlichen Faktoren führen. Das Rollenspiel auf Video aufzunehmen ist nützlich, da es abgespielt und die Highlights im Rahmen des Lernprozesses mit dem Team geteilt werden können. Trainer können den Teilnehmern sowohl die negativen als auch die positiven Praktiken und Verhaltensweisen aufzeigen.[16,17]

Es gibt auch Szenarioschreiber für diese Simulationsfälle. Diese Autoren können die Szenarien für interdisziplinäres Teamtraining und Rollenspiele anpassen, um bestimmte Rollen oder Teaminteraktionen hervorzuheben oder zu erleichtern. Diese Szenarien sollten realistisch, praktisch und umfassend sein. Szenarien haben normalerweise auch Ereignisauslöser, Umgebungsablenker und unterstützende Ereignisse. Sie sollten systematisch mit kompetenzbasierter Bewertung entwickelt werden, die sowohl die integrative Teamleistung als auch die technische Leistung hervorheben kann. Alle Praktiken und Maßnahmen sollten auch durch Daten und Beweise validiert werden.[16]

Einige häufige Fallstricke, die während der Teamleistung beobachtet wurden, sind:[17,18]

Das mangelnde Verständnis der Rollen und Verantwortlichkeiten anderer Teammitglieder, insbesondere über die Disziplinen hinweg.

Das Fehlen klar definierter Rollenvorgaben kann bestehen bleiben, wird aber trotz allgemein akzeptabler Teamleistung erst bei einem Wechsel der Teammitglieder offensichtlich, was dann die Rollenverwirrung offenbart.

Die meisten Gesundheitssysteme haben keine oder nur wenige Prozesse oder Backup-Pläne, wenn Fehler auftreten.

Es gibt die unausgesprochene Annahme von Mitgliedern, dass jeder mit 100% Effizienz und Effektivität arbeiten wird. Es gibt jedoch keine Methode, dies zu messen.


Virtuelle Bibliothek mit 1 Million neuer Makrolidgerüste könnte die Wirkstoffforschung beschleunigen

Forscher der North Carolina State University haben die größte öffentlich zugängliche virtuelle Bibliothek von Makrolidgerüsten erstellt. Die Bibliothek – V1M genannt – enthält chemische Strukturen und berechnete Eigenschaften für 1 Million Makrolidgerüste mit Potenzial für den Einsatz als Antibiotika oder Krebsmedikamente.

"Als Chemiker können wir nur einen winzigen Teil des tatsächlichen chemischen Universums betrachten", sagt Denis Fourches, Assistenzprofessor für Chemie an der NC State und korrespondierender Autor einer Arbeit, die die Arbeit beschreibt. "Wenn wir versuchen würden, alle möglichen einzelnen Chemikalien von Interesse zu synthetisieren und zu testen, würde das viel zu viel Zeit in Anspruch nehmen und zu teuer sein. Daher müssen wir Computer verwenden, um diese unbekannten Teile des chemischen Raums zu erkunden."

Chemiker nutzen Computer unter anderem, indem sie sie verwenden, um neue Moleküle aufzuzählen oder virtuell zu erzeugen und ihre vorhergesagten Eigenschaften mit denen bestehender Medikamente zu vergleichen. Dieses In-silico-Screening-Verfahren identifiziert schnell und kostengünstig Verbindungen mit wünschenswerten Eigenschaften, die experimentelle Chemiker dann synthetisieren und testen können.

Makrolide sind eine Familie von Chemikalien, die hauptsächlich als Antibiotika und Krebsmedikamente verwendet werden. Ihre einzigartige Ringstruktur ermöglicht es ihnen, an schwierige Proteinziele zu binden. Einige von ihnen gelten als Medikamente der letzten Instanz, insbesondere gegen arzneimittelresistente Bakterien.

"Makrolide sind Naturprodukte", sagt Fourches. „Diese Chemikalien werden von Bakterien produziert, um andere Bakterien abzutöten. Aber es sind 20 bis 25 chemische Schritte erforderlich, um diese sehr komplexen Verbindungen zu synthetisieren, was ein zeitaufwändiger und teurer Prozess ist. Wenn Sie also neue Verbindungen finden möchten, Computer Simulation ist bei weitem der schnellste Weg, dies zu tun."

Fourches und seine Kollegen haben ein Computersoftwareprogramm namens PKS Enumerator entwickelt, das sehr große Bibliotheken virtueller chemischer Analoga von Makrolidwirkstoffen erzeugt. Die Software verwendet chemische Bausteine, die aus einem Satz von 18 bekannten bioaktiven Makroliden extrahiert wurden, zerlegt jedes in seine chemischen Bestandteile und mischt sie dann neu, um neue Verbindungen gemäß einer Reihe von Regeln und Benutzerbeschränkungen zu erstellen. Die resultierende Bibliothek neuer Makrolide – V1M – klassifiziert die neuen Verbindungen nach Größe, Gewicht, Topologie und Wasserstoffbrücken-Donoren und -Akzeptoren.

"Wir wollten eine virtuelle Bibliothek völlig neuer Chemikalien erstellen, die wahrscheinlich noch nie jemand synthetisiert hat, aber diese Verbindungen mussten bekannten Makrolid-Medikamenten noch ähnlich genug sein, um diese Bibliothek für die Forschungsgemeinschaft relevant zu machen", sagt Fourches. „V1M ist die erste Public Domain-Bibliothek dieser neuen Makrolide, die alle chemisch den 18 bekannten bioaktiven Makroliden, die wir analysiert haben, ähnlich sind.

Die Forschung erscheint in der Zeitschrift für Cheminformatik. Phyo Phyo Kyaw Zin, Doktorand im NC State, ist Erstautor. Gavin Williams, außerordentlicher Professor für Chemie an der NC State, trug ebenfalls zu den Arbeiten bei.


Software und Toolkits, die derzeit von ACE-Forschern verwendet werden

Die Open-Source-Plattform abcWirtschaft, entwickelt von Davoud Taghawi-Nejad für Agent-Based Computational Economics Anwendungen, ist eine Python-basierte Modellierungsplattform für Wirtschaftssimulationen. abcEconomics verfügt über Standardfunktionen, um bestandsflusskonsistente Simulationen von Produktions-, Handels- und Konsumprozessen für Unternehmen und Verbraucher zu ermöglichen. abcEconomics ermöglicht es Modellierern, Agenten als gewöhnliche Python-Klassenobjekte zu programmieren, aber die resultierenden Programme, wenn sie groß sind (z. Ausführliche Informationen zum Herunterladen, Installieren und Programmieren mit abcEconomics finden Sie im Folgenden abcEconomics Dokumentationshandbuch.

Die Adaptiver Modellierer, entwickelt von Jim Witkam (Altreva, Inc.), erstellt agentenbasierte Marktsimulationsmodelle für die Preisprognose von realen Aktien, Währungen oder anderen am Markt gehandelten Wertpapieren. Das agentenbasierte Modell simuliert einen Finanzmarkt, der aus Tausenden von Agenten besteht, deren (technische) Handelsregeln sich durch eine spezielle adaptive Form der genetischen Programmierung entwickeln. Die Entwicklung der Handelsregeln in Kombination mit der Marktpreisdynamik treibt die Agentenpopulation dazu an, wiederkehrende Preismuster zu erkennen und zu antizipieren und sich gleichzeitig an sich änderndes Marktverhalten anzupassen. Prognosen können entweder auf dem Verhalten aller Agenten oder auf einer dynamischen Gruppe der Agenten mit der besten Leistung basieren. Für ACE-Forscher kann diese Anwendung von Interesse sein, um das Verhalten und die aufkommenden Vorhersagefähigkeiten eines agentenbasierten Marktmodells zu untersuchen, das Informationen aus einem realen Markt enthält. Es sind mehrere Modellinitialisierungsoptionen enthalten, wie z. B. eine vom Benutzer konfigurierbare genetische Programmiermaschine zum Erstellen von Handelsregeln. Die Simulation von Zero Intelligence Trading wird ebenfalls unterstützt. Verschiedene Bevölkerungsstatistiken und andere Daten können in Echtzeit in Diagrammen, Verteilungshistogrammen und Streudiagrammen visualisiert werden. Daten können zur weiteren Analyse in anderen Anwendungen in CSV-Dateien exportiert werden. Eine kostenlose (nicht auslaufende) Testversion mit ausführlicher Dokumentation kann von der oben genannten Adaptive Modeler-Homepage heruntergeladen werden. Adaptiver Modellierer ist auf Windows-Plattformen ausgerichtet und erfordert eine Installation von Microsoft .Net 2.0 oder höher.

Von dem Cormas-Website: „Ressourcenmanagementsysteme sind komplex, wenn gemeinsame Ressourcen von mehreren Benutzern genutzt werden. Ökologische Dynamiken werden auf verschiedenen Ebenen ausgedrückt, dh auf Individuum, Bevölkerung und Gemeinschaft. Soziale Dynamiken werden auf der Ebene von Einzelpersonen oder Organisationen ausgedrückt. In erneuerbaren Ressourcen Management müssen die Wechselwirkungen zwischen der Dynamik der Landwirtschaft und der Ressourcennutzung berücksichtigt werden. Computermodellierung erleichtert das Verständnis dieser Wechselwirkungen. Cormas ist eine Multi-Agenten-Simulationssoftware für das Management erneuerbarer Ressourcen.Es bietet den Rahmen für die Erstellung von Modellen der Interaktionen zwischen Individuen und Gruppen unter Verwendung von (erneuerbaren) Ressourcen."

EuGH ist ein in Java geschriebenes evolutionäres Berechnungssystem für die Forschung. Es wurde so konzipiert, dass es sehr flexibel ist, wobei fast alle Klassen (und alle ihre Einstellungen) zur Laufzeit durch eine vom Benutzer bereitgestellte Parameterdatei dynamisch bestimmt werden. Alle Strukturen im System sind so angeordnet, dass sie leicht veränderbar sind. Trotzdem wurde das System auf Effizienz ausgelegt. ECJ wurde im ECLab Evolutionary Computation Laboratory der George Mason University entwickelt. Das Schwesterprojekt des EuGH ist MASON, ein Multi-Agenten-Simulationssystem, das gut mit dem EuGH verzahnt ist.

Gambit ist eine Bibliothek mit spieltheoretischer Software und Werkzeugen für die Konstruktion und Analyse endlicher Extensiv- und Normalformspiele, die derzeit von Forschern am Department of Economics der Texas A & M University gepflegt werden. Gambit enthält eine grafische Benutzeroberfläche, die Gambit-Befehlssprache und eine Bibliothek mit C++-Quellcode zur Darstellung von Spielen, die für die Verwendung in anderen Anwendungen geeignet sind. Der gesamte Gambit-Quellcode ist frei verfügbar und steht unter der GNU General Public License.

Vom Entwickler (Steve Phelps, U of Liverpool): The JASA (Java-Auktionssimulator-API) wurde auf die portiert Java Agent-Based Modeling (JABM) Toolkit. JABM enthält Funktionen zur Visualisierung der dynamischen Handelsnetzwerke, die entstehen, wenn Agenten in einem auftragsgesteuerten Markt miteinander handeln. Ein Video dieser Visualisierung finden Sie Hier. Weitere Details zum JABM-Toolkit finden Sie in einem Arbeitspapier mit dem Titel "Agentenbasierte Modellierung mit dem JABM-Toolkit".

Die Java-Tutorial: Ein praktischer Leitfaden für Programmierer, verwaltet von Sun Microsystems, Inc., ist ein praktischer Online-Leitfaden für Programmierer mit Hunderten von vollständigen Arbeitsbeispielen und zahlreichen Hinweisen auf grundlegende Informationen (Ausführen Ihres ersten Programms, Erste Schritte, Erlernen der Java-Sprache usw.). Das Tutorial ist in Gruppen von grundlegenden und spezialisierten Lektionen zu verschiedenen Themen unterteilt: zum Beispiel Erste Schritte mit dem Schreiben von Java-Applets wesentliche Java-Klassen Erstellen einer GUI mit benutzerdefinierten JFC/Swing-Netzwerk-2D-Grafiken und Java Beans. Hunderte von vollständigen Arbeitsbeispielen sind in diesen Lektionen enthalten.

Pietro Terna (Wirtschaftswissenschaften, Universität Turin, Italien) hat den Swarm-basierten Java Enterprise Simulator (jES). Ziel von jES ist es, die Konstruktion von Simulationsmodellen sowohl für reale als auch für virtuelle Unternehmen (Firmen) zu ermöglichen. Der Simulator kann entweder ein einzelnes Unternehmen oder ein System von Unternehmen (z. B. innerhalb eines Bezirks oder innerhalb eines virtuellen Unternehmenssystems) modellieren. Die neueste Version von jES, zusammen mit einer vollständigen Benutzeranleitung, finden Sie Hier.

EIN Labor für Simulationsentwicklung (Lsd) wurde von Marco Valente (Universität L'Aquila) für die Evolutionssimulationsmodellierung entwickelt, wie das berühmte Nelson-Winter-Modell (1982) des Schumpterschen Wettbewerbs in einer Industrie oder Wirtschaft veranschaulicht. Lsd-Anwendungen verfolgen einen systemdynamischen (Differenz-/Differentialgleichungen)-Ansatz, der Replikatordynamiken verwendet, anstatt einen agentenbasierten Bottom-up-Ansatz, aber die zugrunde liegende Verwendung von C++ legt nahe, dass auch ein mehr agentenbasierter Ansatz möglich sein könnte. Für eine ausführliche Diskussion von Lsd siehe: M. Valente und E.S. Anderson, "Ein praktischer Ansatz zur Evolutionssimulation: Nelson-Winter-Modelle im Labor für Simulationsentwicklung", Das elektronische Journal für evolutionäre Modellierung und Wirtschaftsdynamik, Nr. 1003, Ausgabe 1, 15. Januar 2002.

Das Evolutionary Computation Laboratory and Center for Social Complexity der George Mason University verwaltet die Entwicklung der MASON Multiagenten-Simulations-Toolkit. MASON enthält sowohl eine Modellbibliothek als auch eine optionale Suite von Visualisierungswerkzeugen in 2D und 3D. MASON ist eine gemeinsame Anstrengung des ECLab (Evolutionary Computation Laboratory) der George Mason University und des GMU Center for Social Complexity und wurde von Sean Luke, Gabriel Catalin Balan und Liviu Panait mit Hilfe von Claudio Cioffi-Revilla, Sean Paus, Daniel . entworfen Kuebrich und Keith Sullivan. Eine SwarmFest04-Präsentation zu MASON kann abgerufen werden Hier.

MATLAB ist eine Hochleistungssprache für Technical Computing. Informationen zu MATLAB erhalten Sie beim MathWorks-Website. Warren Thorngate hat einen Artikel mit dem Titel Soziale Simulation mit MATLAB lehren das erschien im online Zeitschrift für künstliche Gesellschaften und soziale Simulation, Volume 3, No. 1, 2000. In diesem Artikel erklärt Thorngate, warum MATLAB seine bevorzugte Programmiersprache ist, um Simulationsprogrammiertechniken für Simulationsneulinge zu unterrichten.

Modulco ist ein objektorientiertes modulares Framework, das entwickelt wurde, um soziale Phänomene mit mehreren Agenten wie Märkte, Organisationen, Netzwerkeffekte und Bevölkerungsdynamik zu simulieren. Die Entwickler sind Denis Phan und Antoine Beugnard. Weitere Informationen, einschließlich herunterladbarer Anwendungen und bibliografischer Informationen, finden Sie auf der oben genannten Moduleco-Website.

NetLogo, ein Nachkomme von StarLogo (siehe unten), ist eine plattformübergreifende Allzweck-Komplexitätsmodellierungs- und Simulationsumgebung des Center for Connected Learning and Computer-Based Modeling (CCL), Northwestern University, Evanston, Illinois. NetLogo enthält eine große Bibliothek mit Beispielmodellen und Codebeispielen, die Anfängern den Einstieg in die Erstellung von Modellen erleichtern. NetLogo wird von Forschungslaboren und Universitätskursen in einer Vielzahl von Bereichen der Sozial- und Naturwissenschaften verwendet. Ein kostenloser Download sowie ein Benutzerhandbuch sind auf der oben genannten NetLogo-Website erhältlich.

PyABM ist ein Open-Source-Toolkit (GPL-lizenziert), das darauf abzielt, die Programmierung und Analyse von agentenbasierten Modellen, die in der Programmiersprache Python geschrieben sind, zu vereinfachen. Das Toolkit zielt darauf ab, die Modell- und Szenarioentwicklung zu standardisieren und die Dokumentation und Wiederholbarkeit der Modellergebnisse sicherzustellen. Die Entwicklung von PyABM ist im Gange.

Von der offiziellen Website für die Python-Sprache: "Python ist eine interpretierte, interaktive, objektorientierte Programmiersprache. Es wird oft mit Tcl, Perl, Scheme oder Java verglichen. Python kombiniert bemerkenswerte Leistung mit einer sehr klaren Syntax. Es verfügt über Module, Klassen, Ausnahmen, dynamische Datentypen auf sehr hoher Ebene und dynamische Typisierung. . Die Python-Implementierung ist portabel: Sie läuft auf vielen UNIX-Marken (und) auf Windows, DOS, OS/2, Mac, Amiga. ."

Die wichtigste Ressource für alles, was mit Python zu tun hat, einschließlich der neuesten Softwareversionen, ist die Python-Website. Forscher, die neu in Python sind, möchten vielleicht die Ratgeber für Anfänger. Eine weitere Ressource ist Anakonda, eine kostenlose Python-Distribution, die viele Pakete enthält. Ebenfalls, Jupyter ist eine integrierte Entwicklungsumgebung (IDE), die Python, R und andere Programmiersprachen unterstützt.

Darüber hinaus haben Claudius Grönlbner (Johannes Kepler University) und Torsten Heinrich (University of Oxford) verschiedene einführende Python-Installationsmaterialien zur Unterstützung eines Kurses mit dem Titel Komplexität: Theorie und Computermodelle. Diese Materialien umfassen: (i) eine Installationsanleitung für Python und erforderliche Pakete (Mac/Windows/Linux) (ii) allgemeine Anweisungen für die Installation eines Editors oder einer integrierten Entwicklungsumgebung (IDE) (iii) spezifische Anweisungen für die Installation der Jupyter IDE (Mac/Windows/Linux) und (iv) Testskript für Installationstests.

Repast (REcursive Porous Agent Simulation Toolkit) ist ein agentenbasiertes Simulationstoolkit, das speziell für sozialwissenschaftliche Anwendungen entwickelt wurde. Ursprünglich von Forschern der University of Chicago und des Argonne National Laboratory entwickelt, wird Repast heute von der gemeinnützigen Freiwilligenorganisation ROAD (Repast Organization for Architecture and Development) verwaltet. Repast wurde in den folgenden Versionen veröffentlicht: RepastJ (Java-basiert) RepastPy (basierend auf der Python-Skriptsprache) Repast.Net (in C# implementiert, aber jede .Net-Sprache kann verwendet werden) Repast S (Simphony, Java-basiert) und Repast HPC (High Performance Computing). Repast läuft auf praktisch allen modernen Computerplattformen (z. B. Windows, Mac OS und Linux). Die neuesten Repast-Releases sowie detaillierte technische Informationen zur Installation und Nutzung von RePast finden Sie auf der RePast Sourceforge-Website.

Leigh Tesfatsion (Wirtschaftswissenschaften, Iowa State University, Ames, IA) hat eine RePast-Leitfaden zum Selbststudium um Neulingen den Einstieg in die Programmierung mit Repast in einer Java Integrated Development Environment (IDE) zu erleichtern. Zu den behandelten Themen gehören: Einführung in die agentenbasierte Modellierung Einführung in die agentenorientierte Programmierung Einführung in Java Kennenlernen der RePast-Programmierung mit RePast und möglichen Anwendungsgebieten der RePast-Modellierung. Es werden umfangreiche Links zu Online-Ressourcenmaterialien bereitgestellt. Obwohl einige Vorkenntnisse in der Programmierung wünschenswert sind, setzt der Studienführer diese Erfahrung nicht voraus.

  • EIN Welt Definieren der virtuellen Umgebung, in der die Simulation stattfindet
  • Bevölkerungen von autonomen Agenten, die die Welt bewohnen
  • Programme das Verhalten der Agenten steuern
  • Genetische Mechanismen Nachahmung der natürlichen Selektion, die auf die Programme der Agenten einwirkt.

SimX ist eine von GitHub gehostete Bibliothek für die Entwicklung paralleler, ereignisdiskreter, verteilter Speichersimulationen in Python. SimX ist hauptsächlich in C++ geschrieben und bietet dem Simulationsmodellierer die Kernfunktionen, die in einer parallelen Simulationsbibliothek benötigt werden, wie Ereigniswarteschlangen, Zeitvorschub, Domänenpartitionierung, Synchronisierung, Objektserialisierung und Nachrichtenweitergabe. SimX-APIs werden Python ausgesetzt, was die schnelle Entwicklung und das Prototyping einer parallelen Simulation vollständig in Python ermöglicht. SimX ist freie Software, die unter der GNU LGPL-Lizenz erhältlich ist.

Thomas Maxwell, Ferdinando Villa und Robert Costanza, alle mit dem International Institute for Ecological Economics (Center for Environmental Science, University of Maryland System), haben eine integrierte Umgebung für leistungsstarke räumliche Modellierung namens Räumliche Modellierungsumgebung (SME). Von der KMU-Homepage: "Diese Umgebung, die auf transparente Weise symbolbasierte Modellierungsumgebungen mit fortschrittlichen Computerressourcen verknüpft, ermöglicht es Modellierern, Simulationen in einer benutzerfreundlichen, grafischen Umgebung zu entwickeln, die keine Kenntnisse in der Computerprogrammierung erfordert. Automatische Codegeneratoren konstruieren (räumliche) ) Simulationen und ermöglichen die verteilte Verarbeitung über ein Netzwerk von parallelen und seriellen Computern, was einen transparenten Zugriff auf modernste Rechenanlagen ermöglicht.Die Umgebung erlegt die Einschränkungen der Modularität und Hierarchie beim Modellentwurf auf und unterstützt die Archivierung von wiederverwendbaren Modellkomponenten definiert in unserer Modularen Modellierungssprache (MML)."

StarLogo Nova ist eine visuell programmierbare Modellierungsumgebung zum Erkunden der Funktionsweise dezentraler Systeme, die speziell für K-12-Studenten benutzerfreundlich gestaltet wurde. StarLogo Nova kann verwendet werden, um viele reale Phänomene wie Vogelschwärme, Verkehrsstaus, Ameisenkolonien und einfache Marktwirtschaften zu modellieren. Umfangreiche Unterstützung (Tutorials, Demos, Diskussionsgruppe für Benutzer. ) wird auf der StarLogo Nova-Website bereitgestellt.

Schwarm ist im Wesentlichen eine Sammlung von Softwarebibliotheken, geschrieben in Objective C, die von Forschern des Santa Fe Institute entwickelt wurde, um diskrete Ereignissimulationen komplexer Systeme mit heterogenen Elementen oder Agenten zu konstruieren. Einige untergeordnete Bibliotheken, die mit Objective C verbunden sind, sind ebenfalls in Tk geschrieben, einer Skriptsprache, die grundlegende grafische Werkzeuge wie Grafiken, Fenster und Eingabe-Widgets implementiert.

Das in C++ (Open-Source) implementierte Trade Network Game (TNG) kombiniert evolutionäres Gameplay mit bevorzugter Partnerauswahl. Aufeinanderfolgende Generationen von Händlern mit eingeschränkten Ressourcen wählen und verweigern Handelspartner auf der Grundlage ständig aktualisierter erwarteter Auszahlungen, beteiligen sich an riskanten Geschäften, die als Zwei-Personen-Spiele modelliert sind, und entwickeln ihre Handelsstrategien im Laufe der Zeit weiter. Der modulare Aufbau des TNG-Frameworks erleichtert das Experimentieren mit alternativen Spezifikationen für Marktstruktur, Handelspartner-Matching, Erwartungsbildung und Handelsstrategieentwicklung. Der TNG-Rahmen kann verwendet werden, um die evolutionären Implikationen dieser Spezifikationen auf drei verschiedenen Ebenen zu untersuchen: Bildung von Handelsnetzwerken (wer handelt mit wem und mit welcher Regelmäßigkeit), Verhaltensweisen von Händlern in Handelspartnerbeziehungen und soziale Wohlfahrtsergebnisse. Der TNG-Quellcode und das Handbuch sowie Forschungsartikel zum TNG sind erhältlich bei der TNG-Startseite.

Ventana Systems, Inc., Harvard, Massachusetts, wurde 1985 mit dem Ziel gegründet, groß angelegte Simulationsmodelle zu entwickeln, die sowohl geschäftliche als auch technische Elemente integrieren, um schwierige Managementprobleme zu lösen. Ventana Systems unterstützt jetzt eine eigene Simulationssprache namens Vensim. Von der Vensim-Homepage: "Vensim wird zum Entwickeln, Analysieren und Verpacken hochwertiger dynamischer Feedback-Modelle verwendet. Modelle werden grafisch oder in einem Texteditor erstellt. Zu den Funktionen gehören dynamische Funktionen, Subskription (Arrays), Monte-Carlo-Sensitivitätsanalyse, Optimierung, Datenverarbeitung, Anwendungsschnittstellen und vieles mehr. . Vensim PLE (Personal Learning Edition) ist eine Software, die Ihnen den Einstieg in die Systemdynamikmodellierung erleichtert und für den Bildungsbereich kostenlos und für den kommerziellen Gebrauch kostengünstig ist der Systemdynamik."


Virtuelle Bibliothek mit 1 Million neuer Makrolidgerüste könnte die Wirkstoffforschung beschleunigen

Forscher der North Carolina State University haben die größte öffentlich zugängliche virtuelle Bibliothek von Makrolidgerüsten erstellt. Die Bibliothek – V1M genannt – enthält chemische Strukturen und berechnete Eigenschaften für 1 Million Makrolidgerüste mit Potenzial für den Einsatz als Antibiotika oder Krebsmedikamente.

"Als Chemiker können wir nur einen winzigen Teil des tatsächlichen chemischen Universums betrachten", sagt Denis Fourches, Assistenzprofessor für Chemie an der NC State und korrespondierender Autor einer Arbeit, die die Arbeit beschreibt. "Wenn wir versuchen würden, alle möglichen einzelnen Chemikalien von Interesse zu synthetisieren und zu testen, würde das viel zu viel Zeit in Anspruch nehmen und zu teuer sein. Daher müssen wir Computer verwenden, um diese unbekannten Teile des chemischen Raums zu erkunden."

Chemiker nutzen Computer unter anderem, indem sie sie verwenden, um neue Moleküle aufzuzählen oder virtuell zu erzeugen und ihre vorhergesagten Eigenschaften mit denen bestehender Medikamente zu vergleichen. Dieses In-silico-Screening-Verfahren identifiziert schnell und kostengünstig Verbindungen mit wünschenswerten Eigenschaften, die experimentelle Chemiker dann synthetisieren und testen können.

Makrolide sind eine Familie von Chemikalien, die hauptsächlich als Antibiotika und Krebsmedikamente verwendet werden. Ihre einzigartige Ringstruktur ermöglicht es ihnen, an schwierige Proteinziele zu binden. Einige von ihnen gelten als Medikamente der letzten Instanz, insbesondere gegen arzneimittelresistente Bakterien.

"Makrolide sind Naturprodukte", sagt Fourches. „Diese Chemikalien werden von Bakterien produziert, um andere Bakterien abzutöten. Aber es sind 20 bis 25 chemische Schritte erforderlich, um diese sehr komplexen Verbindungen zu synthetisieren, was ein zeitaufwändiger und teurer Prozess ist. Wenn Sie also neue Verbindungen finden möchten, Computer Simulation ist bei weitem der schnellste Weg, dies zu tun."

Fourches und seine Kollegen haben ein Computersoftwareprogramm namens PKS Enumerator entwickelt, das sehr große Bibliotheken virtueller chemischer Analoga von Makrolidwirkstoffen erzeugt. Die Software verwendet chemische Bausteine, die aus einem Satz von 18 bekannten bioaktiven Makroliden extrahiert wurden, zerlegt jedes in seine chemischen Bestandteile und mischt sie dann neu, um neue Verbindungen gemäß einer Reihe von Regeln und Benutzerbeschränkungen zu erstellen. Die resultierende Bibliothek neuer Makrolide – V1M – klassifiziert die neuen Verbindungen nach Größe, Gewicht, Topologie und Wasserstoffbrücken-Donoren und -Akzeptoren.

"Wir wollten eine virtuelle Bibliothek völlig neuer Chemikalien erstellen, die wahrscheinlich noch nie jemand synthetisiert hat, aber diese Verbindungen mussten bekannten Makrolid-Medikamenten noch ähnlich genug sein, um diese Bibliothek für die Forschungsgemeinschaft relevant zu machen", sagt Fourches. „V1M ist die erste Public Domain-Bibliothek dieser neuen Makrolide, die alle chemisch den 18 bekannten bioaktiven Makroliden, die wir analysiert haben, ähnlich sind.

Die Forschung erscheint in der Zeitschrift für Cheminformatik. Phyo Phyo Kyaw Zin, Doktorand im NC State, ist Erstautor. Gavin Williams, außerordentlicher Professor für Chemie an der NC State, trug ebenfalls zu den Arbeiten bei.


Bilder von Lebensmitteln erzeugen Hungergefühle

Max-Planck-Forscher haben erstmals wissenschaftlich nachgewiesen, was Laien schon immer wussten: Der bloße Anblick leckerer Speisen regt den Appetit an. Eine Studie an gesunden jungen Männern hat dokumentiert, dass die Menge des neurosekretorischen Proteinhormons Ghrelin im Blut durch visuelle Stimulation durch Nahrungsbilder ansteigt. Als Hauptregulator steuert Ghrelin sowohl das Essverhalten als auch die physikalischen Prozesse, die am Nahrungsstoffwechsel beteiligt sind.

Diese Ergebnisse zeigen, dass neben den physiologischen Mechanismen zur Aufrechterhaltung des Energiezustandes des Körpers auch Umweltfaktoren einen spezifischen Einfluss auf die Nahrungsaufnahme haben. Somit könnte die allgegenwärtige Präsenz appetitlicher Lebensmittel in den Medien zu einer Gewichtszunahme in der westlichen Bevölkerung beitragen.

Warnung: "Vermeide es, Bilder von appetitlichem Essen anzuschauen, da es dich hungrig macht!" Ernährungsberater könnten in Zukunft Empfehlungen in diese Richtung geben. Es ist seit langem bekannt, dass neben den physiologischen Regelkreisen zur Aufrechterhaltung eines ausreichenden Energiezustandes des Körpers auch äußere Reize wie der Geruch oder der Anblick von Lebensmitteln unser Hungergefühl und unser daraus resultierendes Essverhalten beeinflussen. Die Gefahr, dass die Exposition gegenüber solchen Bildern zum Verzehr von Nahrungsmitteln führt, die nicht zur Aufrechterhaltung des Energiezustandes des Körpers benötigt werden, ist in unserer werbedominierten Gesellschaft besonders hoch.

In einer Studie mit gesunden männlichen Probanden untersuchten Axel Steiger und seine Forschungsgruppe am Max-Planck-Institut für Psychiatrie die molekularen Prozesse zur Steuerung der Nahrungsaufnahme. Sie untersuchten die spezifische physiologische Reaktion der Testpersonen auf Bilder, die entweder leckeres Essen oder nicht essbare Gegenstände zeigen. Gemessen wurden die Konzentrationen verschiedener Hormone im Blut wie Grehlin, Leptin und Insulin, die bei der Regulierung der Nahrungsaufnahme eine Rolle spielen. Tatsächlich beobachteten die Forscher, dass die Konzentration von Grehlin im Blut speziell als Reaktion auf visuelle Stimulation mit Lebensmittelbildern ansteigt.

„Die Ergebnisse unserer Studie zeigen erstmals, dass die Freisetzung von Ghrelin ins Blut zur Regulierung der Nahrungsaufnahme auch durch äußere Faktoren gesteuert wird. Unser Gehirn verarbeitet dabei diese visuellen Reize und die physikalischen Prozesse, die unsere Wahrnehmung steuern.“ Appetit werden unwillkürlich ausgelöst.Dieser Mechanismus könnte uns dazu veranlassen, bereits zwei Stunden nach dem Frühstück ein Stück Kuchen zu essen“, sagt Petra Schüumlssler, Wissenschaftlerin am Max-Planck-Institut. Sie empfiehlt daher Personen mit Gewichtsproblemen, Bilder von appetitlichen Speisen möglichst nicht anzuschauen.


Mehrere Binnenmarkte

Je höher die organisatorische Ebene ist, auf der Führungskräfte ein Problem oder einen Bedarf definieren, desto größer ist die Wahrscheinlichkeit einer erfolgreichen Umsetzung. Gleichzeitig ist jedoch die Erfolgswahrscheinlichkeit umso größer, je näher die Definition und Lösung von Problemen oder Bedürfnissen beim Endnutzer ist. Im Lichte dieses scheinbaren Paradoxons müssen Implementierungsmanager ihre internen Marketingpläne erstellen.

Da diese Manager die Personen oder Gruppen identifizieren, deren Akzeptanz für den Erfolg einer Innovation entscheidend ist, müssen sie auch festlegen, an wen sie sich wann und mit welchen Argumenten wenden. Top-Management und Endnutzer müssen sich für die Innovation einsetzen, um erfolgreich zu sein, aber die Vermarktung einer Idee an diese beiden Gruppen erfordert sehr unterschiedliche Ansätze. Wie also kann ein Implementierungsmanager die allgemeine Akzeptanz einer Innovation aus einem so breiten Kreis fördern? Wir glauben, dass diese Führungskraft die neue Technologie aus der Perspektive jeder Gruppe betrachten und entsprechend planen muss.

Das Top-Management, das sich am meisten mit den wahrscheinlichen Auswirkungen einer Innovation auf das Endergebnis beschäftigt, ist es gewohnt, Vorschläge zu erhalten, die Rendite und Amortisationen angeben. Viele der heutigen computergestützten Technologien lassen sich jedoch aus traditionellen finanziellen Gründen nicht rechtfertigen, können jedoch für die Zukunft eines Unternehmens von entscheidender Bedeutung sein. Angesichts der wachsenden Forderungen nach einer besseren Bewertung des Wertes von Robotern, CAD und computerintegrierter Fertigung durch den Berufsstand des Rechnungswesens beginnen einige Unternehmen, die Grenzen traditioneller Investitionsrechnungsmodelle zu erkennen. 1

Als GE seine hochmoderne maschinelle Geschirrspülanlage errichtete, rechtfertigte es die Kosten ursprünglich mit Einsparungen im Laufe der Zeit, aber das Werk hat sich in unerwarteter Weise aus der Investition ausgezahlt. Die Qualität des Produkts verbesserte sich, niedrigere Herstellungskosten führten zu einer Ausweitung des Marktanteils und das Werk erwies sich als Produktionsstandort für andere Produkte. Jedes Mal, wenn Manager solche nicht-traditionellen Vorteile dokumentieren, erleichtern sie es später, ähnliche Investitionen zu rechtfertigen.

Top-Führungskräfte können auch von strategischen Überlegungen beeinflusst werden. Als die großtechnische Automatisierung in das Geschäft mit großen Dampfturbinengeneratoren von GE eingeführt wurde, wurde die Innovation aufgrund der sich ändernden Geschäftsanforderungen an das Top-Management verkauft: eine Verlagerung von der Herstellung großer, einzigartiger Produkte hin zur Herstellung von Kleinteilen. Die neuen Systeme trugen auch dazu bei, die kontinuierlichen Qualitätsverbesserungen voranzutreiben, die erforderlich sind, um den Betrieb wettbewerbsfähig zu halten, wenn der derzeit schleppende Markt wiederbelebt wird.

Das Top-Management für neue Technologien zu verkaufen – ohne gleichzeitige Einbindung der Nutzerorganisationen in den Entscheidungsprozess – reicht nicht aus. Ebenso wichtig ist es für die Nutzer einer Innovation, die „Eigentümerschaft“ der Technologie zu entwickeln. Die Bedeutung dieses Begriffs hängt stark vom Umfang des Projekts ab. Obwohl es offensichtlich unmöglich ist, alle Nutzer in die Auswahl und/oder Entwicklung einer Innovation einzubeziehen, ist dies keine Entschuldigung, ihre Vertreter nicht einzubeziehen.

Vielleicht noch wichtiger ist es, den Wissenstransfer vom alten Betrieb, in dem die Leute die Materialien und das Produkt sehr gut kannten, auf den neuen Prozess, den Außenstehende zunächst entwerfen und betreiben können, einzuplanen. Die Entwickler des neuen Verfahrens (insbesondere wenn es sich um Computersoftware handelt) kennen ihre Werkzeuge oft sehr gut, aber selten verstehen sie die Materialien und Prozesse, auf die ihre Software angewendet wird, sowie die Menschen in der Fabrik, mit denen sie gearbeitet haben beides seit Jahren. Zumindest sollten Manager einen Mechanismus und Zeit bereitstellen, damit dieses Wissen vom erfahrenen Mitarbeiter zum Entwickler fließen kann.

Ein Beispiel für eine gut entwickelte Eigenverantwortung ist der Fall einer Marketingorganisation, die kurz davor steht, von manuellen Akten zu einem elektronischen Ablage-, Messaging- und Datenabrufsystem zu wechseln, das sowohl von Account Officers als auch von Sekretärinnen verwendet wird. Die Manager beschlossen, sich die Zeit zu nehmen, es gleich beim ersten Mal richtig zu machen, anstatt es noch einmal zu machen. Der Projektleiter richtete ein Gremium aus gewählten Vertretern aller betroffenen Gruppen ein. Dieses Gremium traf sich regelmäßig, um zunächst das richtige Softwarepaket auszuwählen und dann, als sich abzeichnete, dass sie ihr eigenes System bauen mussten, um alle gewünschten Funktionen zu erhalten, zu dessen Struktur und Inhalt beratend tätig.

Das Ergebnis war ein erfinderisches, gut akzeptiertes und weit verbreitetes System. Darüber hinaus betrachteten die Benutzer die kleineren Probleme als Fehler, die behoben werden mussten unsere System. Ein Manager sagte uns: „Die Benutzer wollten es, also haben sie es gebaut.“

Ausschlaggebend für den Erfolg dieses Projekts war die Wahl der Meinungsführer unter den Nutzern für die Beteiligung. Manager, die Veränderungen herbeigeführt haben, wissen seit langem, dass die Meinungen einiger weniger Führungskräfte die Geschwindigkeit und das Ausmaß der Verbreitung einer Innovation maßgeblich beeinflussen. Die Grundlage für Führung unterscheidet sich von Organisation zu Organisation, aber diese Führungskräfte sind normalerweise nicht schwer zu identifizieren. Häufig nehmen sie ihren Einflussbereich aufgrund technischer Fähigkeiten ein, nicht aufgrund einer formalen Position.

Meinungsführer sind jedoch nicht unbedingt die die meisten erfahrene Bediener. Verhaltenswissenschaftliche Studien haben gezeigt, dass Menschen bei solchen Führungskräften häufig nach zwei Arten von Glaubwürdigkeit suchen: „Sicherheits“-Glaubwürdigkeit (diese Person ist wie ich genug, um ihrer Meinung zu vertrauen) und „technische“ Glaubwürdigkeit (diese Person weiß, wovon sie spricht) . Jemand, dessen technische Fähigkeiten so überlegen sind, dass Anhänger keine Hoffnung auf Nachahmung haben können, kann zu weit außerhalb der Normen einer Gruppe liegen, um ein echter Meinungsführer zu sein.

In der eben beschriebenen Marketingorganisation weigerte sich ein Senior Account Manager, das neue elektronische System zu verwenden. Die Systemimplementierer waren zunächst alarmiert, stellten dann aber fest, dass diese Person kein Meinungsführer war. Ihre Bemühungen flossen um ihn herum, ungehindert von seinem Widerstand. Sechs Monate, nachdem alle anderen auf das System eingestiegen waren, kapitulierte er, endlich von seinem Nutzen überzeugt.


INTERDISZIPLINÄRE TEAMARBEIT UND FÄHIGKEITEN

Das Pflegeteam besteht aus Ärzten verschiedener Fachrichtungen, Pflegepersonal, Physiotherapeuten, Radiologen und Röntgentechnikern, Apothekern, Medizinstudenten und anderem Personal. Die Zusammensetzung variiert je nach Zielsetzung der Teams. Beispiele sind Schlaganfall-Management-Teams, Trauma-Teams, Interventionsteams bei akutem Koronarsyndrom usw. Die Ausbildung jedes Teammitglieds wird von seiner eigenen Disziplin bestimmt. Daher ist es notwendig, sie auf integrierte Weise zusammenzubringen, um zu lernen, wie man einen Patienten mit komplexen medizinischen Problemen behandelt. Keine Disziplin ist wichtiger als die andere. Jeder hat eine Rolle zu spielen. In simulierten Übungen mit Teams lernen die Mitglieder, sich gegenseitig nicht auf die Zehen zu treten.” Sie werden sich ihrer synergetischen Rollen bewusst. Es muss auch eine gewisse Flexibilität zu verschiedenen Zeitpunkten der Entscheidungsfindung und des Eingreifens gegeben sein. Teamfähigkeit und zwischenmenschliche Kommunikationstechniken sind wesentliche Bestandteile eines solchen Trainings und Trainings.[13�]

Die Simulationstrainer sind oft leitende Angestellte, die einen guten Überblick über den gesamten teambasierten Ansatz haben. Sie müssen in der Lage sein, die Gruppendynamik und Interaktion innerhalb der von ihnen trainierten Teams objektiv zu betrachten und wertvolles Feedback zu geben. Sie bewerten die Leistung des Teams in Echtzeit und können Checklisten mit Aktivitäten, Aktionen und relevanten menschlichen Faktoren führen. Das Rollenspiel auf Video aufzunehmen ist nützlich, da es abgespielt und die Highlights im Rahmen des Lernprozesses mit dem Team geteilt werden können. Trainer können den Teilnehmern sowohl die negativen als auch die positiven Praktiken und Verhaltensweisen aufzeigen.[16,17]

Es gibt auch Szenarioschreiber für diese Simulationsfälle. Diese Autoren können die Szenarien für interdisziplinäres Teamtraining und Rollenspiele anpassen, um bestimmte Rollen oder Teaminteraktionen hervorzuheben oder zu erleichtern. Diese Szenarien sollten realistisch, praktisch und umfassend sein. Szenarien haben normalerweise auch Ereignisauslöser, Umgebungsablenker und unterstützende Ereignisse. Sie sollten systematisch mit kompetenzbasierter Bewertung entwickelt werden, die sowohl die integrative Teamleistung als auch die technische Leistung hervorheben kann. Alle Praktiken und Maßnahmen sollten auch durch Daten und Beweise validiert werden.[16]

Einige häufige Fallstricke, die während der Teamleistung beobachtet wurden, sind:[17,18]

Das mangelnde Verständnis der Rollen und Verantwortlichkeiten anderer Teammitglieder, insbesondere über die Disziplinen hinweg.

Das Fehlen klar definierter Rollenvorgaben kann bestehen bleiben, wird aber trotz allgemein akzeptabler Teamleistung erst bei einem Wechsel der Teammitglieder offensichtlich, was dann die Rollenverwirrung offenbart.

Die meisten Gesundheitssysteme haben keine oder nur wenige Prozesse oder Backup-Pläne, wenn Fehler auftreten.

Es gibt die unausgesprochene Annahme von Mitgliedern, dass jeder mit 100% Effizienz und Effektivität arbeiten wird. Es gibt jedoch keine Methode, dies zu messen.


16 Antworten 16

Linux verwendet ein 1-1-Threading-Modell, mit (für den Kernel) keine Unterscheidung zwischen Prozessen und Threads – alles ist einfach eine ausführbare Aufgabe. *

Unter Linux klont der Systemaufrufklon eine Aufgabe mit einer konfigurierbaren Freigabeebene, darunter:

  • CLONE_FILES : Geben Sie dieselbe Dateideskriptortabelle frei (anstatt eine Kopie zu erstellen)
  • CLONE_PARENT : Richten Sie keine Eltern-Kind-Beziehung zwischen der neuen und der alten Aufgabe ein (sonst getppid() des Kindes = getpid() des Elternteils)
  • CLONE_VM : den gleichen Speicherplatz teilen (anstatt eine COW-Kopie zu erstellen)

fork() ruft clone (wenigstes Teilen) auf und pthread_create() ruft Klonen (meistes Teilen) auf. **

Forking kostet etwas mehr als pthread_createing, da Tabellen kopiert und COW-Mappings für den Speicher erstellt werden, aber die Linux-Kernel-Entwickler haben versucht (und erfolgreich), diese Kosten zu minimieren.

Das Umschalten zwischen Tasks, wenn sie sich den gleichen Speicherplatz und verschiedene Tabellen teilen, ist ein kleines bisschen billiger als wenn sie nicht geteilt werden, da die Daten möglicherweise bereits in den Cache geladen werden. Das Wechseln von Aufgaben ist jedoch immer noch sehr schnell, selbst wenn nichts geteilt wird – dies ist etwas anderes, das Linux-Kernel-Entwickler versuchen sicherzustellen (und sicherzustellen).

In der Tat, wenn Sie auf einem Mehrprozessorsystem arbeiten, nicht Die gemeinsame Nutzung kann sich sogar positiv auf die Leistung auswirken: Wenn jede Aufgabe auf einem anderen Prozessor ausgeführt wird, ist die Synchronisierung des gemeinsam genutzten Speichers teuer.

* Vereinfacht. CLONE_THREAD bewirkt, dass die Signallieferung geteilt wird (was CLONE_SIGHAND benötigt, das die Signalhandler-Tabelle teilt).

** Vereinfacht. Es gibt sowohl SYS_fork- als auch SYS_clone-Systemaufrufe, aber im Kernel sind sys_fork und sys_clone beide sehr dünne Wrapper um dieselbe do_fork-Funktion, die selbst ein dünner Wrapper um copy_process ist. Ja, die Begriffe process , thread und task werden im Linux-Kernel ziemlich synonym verwendet.

Linux (und in der Tat Unix) bietet Ihnen eine dritte Option.


Praktische Anwendungen des Change Managements

Es gibt nichts Schwierigeres in die Hand zu nehmen, gefährlicher zu führen oder unsicherer in seinem Erfolg, als die Führung bei der Einführung einer neuen Ordnung der Dinge zu übernehmen.—Niccolo Machiavelli

Eines der schwierigsten Probleme von Unternehmen ist der Umgang mit Veränderungen. In dem sich schnell verändernden, stark wettbewerbsorientierten Umfeld von heute wird die Fähigkeit, sich schnell, effizient und fast kontinuierlich zu verändern, die Gewinner von den Verlierern unterscheiden. Viele gesundheitsbezogene Organisationen werden verschwinden, weil sie sich nicht anpassen können. Darüber hinaus sind viele der Veränderungszwänge in Gesundheitsorganisationen unabhängig von technologischen Veränderungen. Dies bedeutet, dass Informatiker, die für den Wandel arbeiten, dies in Organisationen tun, die bereits durch andere Belastungen stark belastet sind.

Größere organisatorische Veränderungen beinhalten in der Regel viele verschiedene Arten und Ausmaße von persönlichen Verlusten für die Mitarbeiter in der Organisation. Veränderung erfordert zum Beispiel immer die Anstrengung, Neues zu lernen, was einen Zeit- und Energieverlust bedeutet, der an anderer Stelle hätte eingesetzt werden können. Obwohl einige die Möglichkeit zum Lernen begrüßen mögen, möchten viele von uns diese Zeit und Energie nicht investieren, es sei denn, wir sind mit den derzeitigen Regelungen unzufrieden oder sehen starke Vorteile der vorgeschlagenen Änderung. Ein Upgrade auf neue Software ist ein häufiges Beispiel, bei dem die zukünftigen Vorteile möglicherweise nicht ausreichen, um die kurzfristigen Investitionen, die zum Erlernen der neuen Programme erforderlich sind, aufzuwiegen.

Zweitens wollen die Menschen sich gut fühlen. Im Idealfall sind die Menschen in der Lage, stolz auf ihre Arbeit zu sein, sich für eine gut gemachte Arbeit verantwortlich zu fühlen, sich als Teil eines hochwertigen Unternehmens zu fühlen und das Gefühl zu haben, dass ihre Zeit eine gewisse Bedeutung hat. In vielen Arbeitssituationen erschweren die Arbeit selbst und die Unternehmenskultur es den Menschen, sich gut zu fühlen. In diesen ärmeren Situationen erfinden Menschen normalerweise Strategien, die ihnen helfen, sich besser zu fühlen, und diese Strategien beinhalten, ein gewisses Gefühl von Kontrolle, Zugehörigkeit und Bedeutung aus ihrer Arbeit zu gewinnen. Manchmal ist dies mit Opposition gegen das Management verbunden, in der Annahme, dass das Management immer nichts Gutes im Schilde führt. Häufiger sind die Beziehungen zwischen Arbeitern und Führungskräften nicht vollständig entfremdet. Dennoch sind die Strategien der Arbeiter, um “gute” Gefühle zu erreichen, dem Management unbekannt oder werden vom Management völlig missverstanden. Daher drohen Veränderungsinitiativen, unwissentlich und unbeabsichtigt, den Arbeitern schwere persönliche Verluste zuzufügen. Es überrascht nicht, dass die Arbeiter sich wehren und alles tun, um solche Veränderungsinitiativen zu sabotieren.

Drittens erfordern Veränderungsinitiativen oft große Verluste für das mittlere Management. Im Allgemeinen nehmen die Menschen an, dass Informationssysteme die Fähigkeit von Top-Führungskräften erhöhen, mehr über das Geschehen zu wissen und eine direktere Kontrolle auszuüben. Für den mittleren Manager bedeutet dies einen gravierenden Verlust an persönlicher und organisatorischer Bedeutung. Manchmal kämpfen mittlere Manager mit diesem Verlust. Jede bedeutende organisatorische Veränderung beinhaltet eine Änderung von Gewohnheiten, dh eine Änderung der Art und Weise, wie wir unsere Arbeit tatsächlich erledigen. Dies beinhaltet normalerweise Änderungen in der Art und Weise, wie wir mit Menschen und unseren Tools interagieren. Neue Systeme erfordern, dass wir neue Verhaltensweisen erlernen.

Arten von Änderungen

Veränderungen in einer Organisation können oft als eine von vier Arten identifiziert werden, wobei es durchaus möglich ist, dass sie sich überschneiden:

Betriebsänderungen die Art und Weise beeinflussen, wie der laufende Geschäftsbetrieb durchgeführt wird, beispielsweise die Automatisierung eines bestimmten Bereichs.

Strategische Veränderungen erfolgen in der strategischen Geschäftsausrichtung, z.B. Wechsel vom stationären zum ambulanten Schwerpunkt.

Kulturelle Veränderungen beeinflussen die grundlegenden Organisationsphilosophien, nach denen das Geschäft geführt wird, z. B. die Implementierung eines Systems zur kontinuierlichen Qualitätsverbesserung (CQI).

Politische Veränderungen in der Personalbesetzung erfolgen in erster Linie aus politischen Gründen unterschiedlicher Art, wie sie beispielsweise auf oberster Patronage-Ebene in Regierungsbehörden vorkommen.

Diese vier verschiedenen Arten von Veränderungen haben in der Regel ihre größten Auswirkungen auf verschiedenen Ebenen der Organisation. Operative Veränderungen haben beispielsweise die größten Auswirkungen auf die unteren Ebenen der Organisation, direkt in der Schusslinie. Menschen, die auf den oberen Ebenen arbeiten, bemerken möglicherweise nie Veränderungen, die denjenigen, die versuchen, die Veränderungen umzusetzen, erheblichen Stress und Aufruhr verursachen. Andererseits sind die Auswirkungen politischer Veränderungen typischerweise auf den höheren Organisationsebenen am stärksten zu spüren. Wie der Name schon sagt, werden diese Veränderungen typischerweise nicht aus ergebnisorientierten Gründen vorgenommen, sondern aus Gründen wie parteipolitischer oder interner Machtkämpfe. Wenn diese Veränderungen in einer relativ bürokratischen Organisation stattfinden, wie es oft der Fall ist, bemerken die Mitarbeiter unten die Veränderungen an der Spitze oft kaum. Die Patienten werden gesehen und die Böden werden genauso gereinigt wie zuvor. Der entscheidende Punkt ist, dass die Leistung nicht die Grundlage der Änderung war, daher sind die Darsteller nicht sehr betroffen.

Mikroänderungen und Megaänderungen

Bei der Kommunikation über Veränderungen sind die Modelle von Watzlawick und Golembiewski tendenziell zu abstrakt oder schwer zu erklären. Ein praktischeres Modell, das wir häufig verwenden, unterteilt Änderungen in Mikroveränderungen und Megaveränderungen, ohne große Bemühungen um ausgefeilte Definitionen. In erster Näherung kann folgendes Schema verwendet werden, um zwischen den beiden zu unterscheiden:

Mikroänderungen—Unterschiede im Grad

Megaänderungen𠅊rtenunterschiede

Am Beispiel eines Informationssystems wären Modifikationen, Erweiterungen, Verbesserungen und Upgrades typischerweise Mikroänderungen, während ein neues System oder eine sehr große Überarbeitung eines bestehenden Systems eine Megaänderung wäre. Dieses Schema funktioniert überraschend gut für die Kommunikation innerhalb von Organisationen, solange wir uns daran erinnern, dass die Mikroveränderung einer Person oft die Megaveränderung einer anderen Person ist. Während also die Systemdesigner denken, dass sie eine kleine Änderung vornehmen, um das Gesamtsystem zu verbessern, kann ein einzelner Endbenutzer die Änderung als Megaänderung sehen und sich vehement dagegen wehren. Beim Entwerfen der Gesamtstrategie “people” für jedes System ist es wichtig, von Anfang an eine Vielzahl von Personen einzubeziehen, um klar zu verstehen, wie Gruppen in der Organisation funktionieren und wie die Arbeit wirklich erledigt wird.

Die Besetzung der Charaktere

Bei jeder gegebenen Veränderung können Menschen eine breite Palette von Rollen einnehmen, die ihre Wahrnehmung der Veränderung und ihre Reaktionen darauf stark beeinflussen. Dies sind Rollen wie Champion, Endbenutzer, Entwickler/Builder, wachsamer Beobachter, Blockierer und dergleichen. Wie auf der Bühne können manche Menschen gelegentlich mehr als eine Rolle spielen. In anderen Fällen sind die Rollen eindeutig. Wenn wir nicht sowohl die Akteure als auch ihre Rollen in einer Veränderungssituation klar identifizieren, riskieren wir, Entscheidungen zu treffen und Maßnahmen zu ergreifen, die auf Verallgemeinerungen basieren, die für einige der Hauptakteure nicht zutreffen.

Ein häufig verwendeter Überblicksbegriff für die verschiedenen Rollen ist Stakeholder. Die Stakeholder haben ein gewisses Interesse oder Interesse an der Qualität sowohl des Change- als auch des Change-Implementierungsprozesses. Die Rolle der Stakeholder unterliegt einem Wandel, insbesondere während eines sich über einen längeren Zeitraum erstreckenden Veränderungsprozesses.

Für diejenigen, die Änderungen implementieren, sind die folgenden Schritte von entscheidender Bedeutung:

Um zu erkennen, welche Rollen sie selbst im Prozess einnehmen

Um zu erkennen, welche Rollen die anderen am Prozess beteiligten Personen spielen, achten Sie darauf, mehrere Rollen zu erkennen

Um sorgfältig zu identifizieren, welche Rolle spricht, wenn man mit denen kommuniziert, die mehrere Rollen spielen

Um während des gesamten Prozesses zu überwachen, ob sich Rollen ändern

Widerstand zur Aenderung

Es ist leicht, Dinge zu ändern, die niemanden interessiert.Es wird schwierig, wenn Sie beginnen, die Dinge zu ändern, die den Menschen wichtig sind—oder wenn sie beginnen, sich um die Dinge zu kümmern, die Sie ändern.—Lorenzi und Riley

Der Widerstand gegen Veränderungen ist ein anhaltendes Problem. Sowohl auf individueller als auch auf organisatorischer Ebene beeinträchtigt der Widerstand gegen Veränderungen die konzertierten Bemühungen zur Leistungssteigerung. Viele unternehmerische Veränderungsbemühungen wurden mit enormen Kosten eingeleitet, nur um durch den Widerstand der Mitarbeiter der Organisation gestoppt zu werden. Organisationen als Ganzes zeigen auch ein ähnliches Verhalten wie Einzelpersonen, wenn sie mit der Notwendigkeit konfrontiert sind, sich zu ändern.

Die Beziehung zwischen individuellem und organisatorischem Widerstand gegen Veränderungen ist wichtig. Eine Organisation ist ein komplexes System von Beziehungen zwischen Menschen, Führungskräften, Technologien und Arbeitsprozessen. Aus dieser Interaktion entstehen organisationales Verhalten, Kultur und Leistung.

Diese auftauchenden Eigenschaften und Verhaltensweisen sind in zwei Richtungen eng mit den Interaktionen auf niedrigerer Ebene verbunden. Organisatorischer Widerstand gegen Veränderungen ist eine emergente Eigenschaft, und individueller Widerstand gegen Veränderung kann zu organisatorischem Widerstand führen. Eine sich selbst verstärkende Schleife zunehmenden Widerstands kann sich entwickeln, wenn Individuen ein Umfeld schaffen, in dem Widerstand gegen Veränderungen die Norm ist. Dieses Umfeld wiederum fördert den Widerstand der einzelnen Mitarbeiter gegen Veränderungen. Die sich selbst verstärkende Natur dieser Schleife kann enorm mächtig sein und wiederholte Versuche, aus ihr auszubrechen, zunichte machen.

Studien zur Systemdynamik zeigen häufig, dass große Probleme, die alle für extern hielten, in Wirklichkeit die unbeabsichtigten Folgen interner Politiken sind. Die grundlegende Dynamik dieses Phänomens besteht darin, dass die Organisation aus einem Netzwerk zirkulärer Kausalprozesse besteht: A beeinflusst B, der dann C beeinflusst, der wiederum A beeinflusst, d.h. die Schlange beißt sich in den Schwanz. Das Verständnis dieser internen Organisationsdynamiken ist eine Voraussetzung für die Führung effektiver Veränderungsprozesse.

Rituale des Übergangs

Jede Veränderung ist mit Verlust verbunden. In vielen Fällen erfordert Veränderung zumindest, dass der Einzelne vertraute Routinen aufgibt. In einigen Fällen ist der Verlust erheblich und beeinträchtigt Position, Macht, Netzwerke von Freunden und Kollegen usw. In all diesen Situationen können Übergangsrituale entscheidend sein, um Menschen zu helfen, zu trauern und das Alte loszulassen und zum Neuen überzugehen.

Die Strategien zur Überwindung von Veränderungsbarrieren sind sehr vielfältig und berühren jeden Aspekt der Organisation. Keine Organisation kann alle Strategien gleichzeitig oder auch nur in kurzer Zeit anwenden. Ein besserer Ansatz besteht darin, sich auf ein oder zwei zu konzentrieren, bis sie Teil der normalen Arbeitsweise werden, d. h. bis sie sich in den Gewohnheiten der Menschen verwurzeln. Erst dann ist es an der Zeit, eine andere Strategie einzuführen. Auf diese Weise verbessert die Organisation im Laufe der Zeit nach und nach ihre Fähigkeit, schnell zu lernen, sich an neue Bedingungen anzupassen und Veränderungen anzunehmen.


Die Suche nach dem Ende des Welthungers

Gentechnik-Techniken könnten eine wichtige Rolle bei der Sicherung der Zukunft der globalen Ernährungssicherheit spielen.

Viele Länder weltweit sind neben Übergewicht und Fettleibigkeit mit der doppelten Belastung durch Hunger und Unterernährung konfrontiert. Jeder dritte Mensch weltweit leidet derzeit an irgendeiner Form von Unterernährung. Tatsächlich ist es nicht ungewöhnlich, dass Menschen mit unterschiedlichen Formen der Unterernährung Seite an Seite leben.

Während weltweit mittlerweile mehr Menschen übergewichtig oder fettleibig als untergewichtig sind, leiden laut Global Food Security rund 795 Millionen Menschen täglich Hunger, während mehr als zwei Milliarden Menschen lebenswichtige Mikronährstoffe (z. B. Eisen, Zink, Vitamin A) fehlen. Auswirkungen auf ihre Gesundheit und Lebenserwartung. Darüber hinaus sind fast ein Viertel aller Kinder unter fünf Jahren verkümmert, mit verminderten körperlichen und geistigen Fähigkeiten, und weniger als ein Drittel aller Kleinkinder in 60 Ländern mit niedrigem und mittlerem Einkommen erfüllen die für Wachstum erforderlichen Mindeststandards für die Ernährungsvielfalt.

Tatsächlich ist die Ernährungssicherheit immer noch ein wachsendes Problem. Aber neue Pflanzenzüchtungstechniken könnten die Entwicklung neuer Eigenschaften bei Nutzpflanzen fördern und beschleunigen und dazu beitragen, Produktion und Erträge zu steigern. Insbesondere Genome-Editing (GE)-Techniken, insbesondere eine Methode namens Clustered Regularly Interspaced Short Palindromic Repeats (Crispr-Cas), könnten tatsächlich dazu beitragen, die Landwirtschaft produktiver und umweltfreundlicher zu machen.

Bisher wurden Technologien wie chemische Düngemittel, Pestizide, Herbizide, moderne Landmaschinen und künstliche Selektion zur Steigerung der Produktion eingesetzt. Neuere Technologien verfolgen jedoch den Ansatz, die Pflanze selbst zu verändern, anstatt etwas darauf zu sprühen. Die erste Iteration davon war mit genetischer Modifikation. Hier wird Gentechnik eingesetzt, um etwas hinzuzufügen und so seine genetische Struktur zu verändern.

Techniken der genetischen Modifikation (GM) erhöhten den Einsatz, indem sie einen viel größeren Pool an genetischer Variation zur Verfügung stellten. Dies bedeutete, dass die gentechnisch veränderten Pflanzen wünschenswerte Eigenschaften wie Trockenheitsresistenz aufweisen könnten.

Rene Custer, regulatorischer und verantwortlicher Forschungsmanager bei Vlaams Instituut voor Biotechnologie, einem Biotech-Institut mit Sitz in Belgien, argumentiert: „Herkömmliche Techniken wie die genetische Veränderung sind weniger zuverlässig und bedeuten auch lange Wartezeiten, weil die Techniken einfacher sind: nämlich die Kombination verschiedener Sorten zu schau, was du am Ende hast. Es war immer blind und zufällig.“

Jetzt treten neuere Pflanzenzüchtungstechniken in den Vordergrund, die als zuverlässiger gelten. Dies könnte ein Mittel sein, um die Entwicklung neuer, wünschenswerterer Eigenschaften in der Pflanzenzüchtung weiter zu steigern und zu beschleunigen. GE-Techniken könnten dazu beitragen, die Landwirtschaft sowohl produktiver als auch umweltfreundlicher zu machen – beides trägt dazu bei, die Nahrungsmittelarmut zu beenden und die Umweltauswirkungen der Landwirtschaft zu verringern (siehe Kasten).

„Pflanzenzüchtung und andere landwirtschaftliche Technologien haben in den letzten Jahrzehnten erheblich zur Verringerung des Hungers beigetragen“, sagt Matin Qaim von der Universität Göttingen. In seinem 2019 erschienenen Papier „Food Security: Impact of Climate Change and Technology“ zitiert er mehrere Autoren, die sagen, dass GE „zu höheren Ernteerträgen, einem geringeren Einsatz von chemischen Düngemitteln und Pestiziden, einer besseren Widerstandsfähigkeit der Pflanzen gegen Klimastress, weniger Ernteverluste und nahrhaftere Lebensmittel“.

Nigel Halford, Pflanzenwissenschaftler am britischen Rothamsted Research, einer der ältesten landwirtschaftlichen Forschungseinrichtungen der Welt, untersucht den Unterschied zwischen Gentechnik und Gentechnik. „Bei GM kommt ein zusätzliches Gen hinzu – es gibt eine Modifikation. Aber bei GE wird das Endprodukt, obwohl es eine Änderung innerhalb des Prozesses geben könnte, nicht genetisch verändert, sondern modifiziert, um eine Eigenschaft einzuführen oder herauszunehmen.

„Die Idee hinter der Bearbeitung besteht darin, etwas herauszustreichen, was man nicht möchte, oder etwas einzuführen, das man tut. Es geht um Mutation, anstatt etwas völlig Neues einzuführen“, sagt er.

Als Beispiel nennt er Raps, der toleranter gegenüber Herbiziden gemacht werden kann, wenn ihm ein Enzym zugesetzt wird, damit es nicht auf Herbizide reagieren kann. Diese Technik, die Fähigkeit der Pflanze zu kastrieren, auf etwas zu reagieren, kann auch auf die Entfernung von Allergenen und anderen negativen Faktoren angewendet werden.

„Obwohl Sie dies auch mit GM-Techniken tun könnten, wäre das Endergebnis nicht 100-prozentig zuverlässig – eher eine Reduzierung als eine Entfernung oder Hinzufügung von etwas. Bei Modifikationen ist das Endergebnis besser, weil die ursprüngliche Struktur der Anlage nicht hinzugefügt, sondern nur modifiziert wurde“, erklärt er.

Adaptive symbiotische Technologie

Die adaptive symbiotische Technologie ist eine weitere Entwicklung, die viel zur Lösung der Nahrungsmittelarmut beitragen könnte. Im Wesentlichen erzeugt diese Technologie nicht-toxische und nicht-pathogene Mikroben in bestimmten Arten von symbiotischen Pilzen, die als Endophyten bekannt sind. Sie können zusammen mit anderen Pflanzen wachsen und ihnen helfen, nährstoffeffizienter zu sein und Umweltstress wie Trockenheit, Salzgehalt und Temperatur zu tolerieren. Dies ist eine Technik, die auf eine Vielzahl von Getreide, Hülsenfrüchten, Gemüse und Industriepflanzen angewendet werden kann. Vereinfacht gesagt ist dies im Grunde die Nutzung des bereits Vorhandenen durch symbiotische oder natürliche Interaktionen zwischen Pflanzen und Mikroorganismen.

„Die symbiotische Technologie verwendet Pilze, die mit Pflanzen interagieren, um die Nährstoffe zu verändern, den Pflanzenertrag und die Gesamtqualität der Ernte zu erhöhen“, sagt Nigel Halford, Pflanzenwissenschaftler bei Rothamsted Research. „Der Bauer kann diese Mikroben kaufen, um sie selbst der Ernte hinzuzufügen.“

Eine aktiv daran beteiligte Firma ist die in den USA ansässige Firma Adaptive Symbiotic Technologies (AST). Es hat mit Saatgutunternehmen und Züchtern in Australien, den Niederlanden, Kenia, Argentinien und Indien zusammengearbeitet, um seine Produktlinie an verschiedenen Pflanzen zu testen und zu testen. Die besten Ergebnisse stammen aus Indien, wo AST die Technologie unter Hochstressbedingungen eingesetzt und gute Ergebnisse erzielt hat. Die getesteten Pflanzen umfassen Weizen, Hirse, Okra, Baumwolle, Mais und Reis. Die Studien wurden durch Zuschüsse des US-India Science and Technology Endowment Fund und der United States Agency for International Development unterstützt.

Bei erfolgreicher Anwendung in der Agrarindustrie würde diese Technologie nicht nur die Nahrungsmittelarmut verringern, indem sie zum zukünftigen Erfolg der Kulturpflanzen beiträgt, sondern auch die Abhängigkeit von Chemikalien verringern. Und obwohl die Technologie zusammen mit Chemikalien verwendet werden kann, hat sie sich als effektiver erwiesen, wenn die Chemikalien entfernt wurden. Versuche in gemäßigten Klimazonen zeigten beispielsweise, dass die Produktion um 3 bis 20 Prozent gestiegen ist. Somit bietet diese Technologie möglicherweise ein Mittel, um auf umweltfreundlichere Weise robustere Pflanzen zu erzeugen, indem die Chemikalien entfernt werden.

Obwohl es viele GE-Techniken gibt, ist eine entstanden, die wahrscheinlich im Mittelpunkt stehen wird. Das im Jahr 2012 entwickelte Crispr-Cas-System ist sowohl relativ einfach zu bedienen als auch effektiv, sagen Experten.

„Crispr-Cas ist eine Technik, die in Pflanzenforschungs- und Züchtungsunternehmen eine sehr breite Akzeptanz findet. Obwohl es einige Arten der Genbearbeitung gibt, scheint Crispr-Cas diejenige zu sein, die am besten und effizientesten zu funktionieren scheint“, bemerkt Custer. „Grundsätzlich wollen Pflanzenzüchter ihre Sorten verbessern, um robuster zu sein, Resistenzen zu haben, Dinge herauszunehmen, die nicht gewollt sind, und Dinge einzuführen, die es sind. Daher ist es für sie sinnvoll, die einfachste und effizienteste Technik zu verwenden. Das ist zum größten Teil Crispr-Cas.“

Crispr-Cas wird bereits verwendet, wobei etwa 60 Pflanzenarten verändert wurden, um Resistenz gegen Krankheiten, Trockenheit und andere Umweltbedingungen zu bieten. Es wurde auch verwendet, um Pflanzen mit bestimmten Eigenschaften wie ballaststoffreichem Weizen zu erzeugen oder Allergene wie Gluten zu entfernen. Es wurden auch neue wünschenswerte Eigenschaften eingeführt, wie zum Beispiel bei schwer zu züchtenden Pflanzen wie Bananen.

Qaim nennt „vielfältige“ Beispiele für geneditierte Pflanzen am oder kurz vor dem Ende der Forschungspipeline. Dazu gehören pilzresistenter Weizen-​, Reis-, Bananen- und Kakao-​Dürretoleranter Reis, Mais und Sojabohnen-​bakterienresistenter Reis und Bananensalz-​toleranter Reis sowie virusresistenter Maniok und Bananen.

In der Zwischenzeit zitierte ein Artikel von Janina Metje-Sprink und anderen Forschern mit dem Titel „Genom-editierte Pflanzen im Feld“ die Verwendung von Crispr-Cas im Genom von mindestens 40 verschiedenen Pflanzen, einschließlich Nischenkulturen wie Stachelbeere und Wassermelone. In dem Papier heißt es, dass die größten Feldversuche mit gentechnisch veränderten Pflanzen für Reis existieren und in China stattfanden, wo die Größe der Reiskörner erhöht wurde. Unterdessen führten Versuche mit Mais zu höheren Ernteerträgen. Auch Tomaten wurden getestet, und es wurde nachgewiesen, dass sie sich selbst beschneiden und größer oder kleiner gemacht werden.

Es gibt eindeutig Beispiele dafür, wo dies von Vorteil war, aber was sind die Risiken, wenn überhaupt? Zum einen bestehen Risiken im Zusammenhang mit dem Prozess selbst und zum anderen Risiken im Hinblick auf das Endprodukt mit neuen Eigenschaften.

Qaim sagt, dass 30 Jahre Risikoforschung in Bezug auf GV-Pflanzen darauf hindeuten, dass es keine neuen Risiken im Zusammenhang mit dem Züchtungsprozess gibt und dass GV nicht von Natur aus riskanter sind als konventionell gezüchtete Pflanzensorten. Aber für Gen-Editing-Technologien wie Crispr-Cas gebe es noch keine lange Sicherheitsbilanz, sagt er, weil diese Technologien erst seit wenigen Jahren im Einsatz seien.

Da die bisher entwickelten Punktmutationen jedoch genetisch nicht von natürlichen Mutationen zu unterscheiden seien, seien neue Risikoarten im Zusammenhang mit dem Veränderungsprozess unwahrscheinlich.

Die zweiten Risikoarten, nämlich diejenigen, die sich auf ein bestimmtes neues Merkmal beziehen, seien anders, sagt er. „Jede neue Eigenschaft kann unterschiedliche Auswirkungen haben. Die Herbizidtoleranz wird sich beispielsweise in ihren Auswirkungen auf Umwelt und Gesundheit von Merkmalen wie Trockenheitstoleranz oder erhöhten Vitaminspiegeln unterscheiden. Merkmalsspezifische Risiken können nur von Fall zu Fall beurteilt werden.“

Aus diesem Grund ist Qaim der Ansicht, dass eine Regulierung nach Merkmalen und nicht nach Prozessen sinnvoller wäre. Tatsächlich haben viele Länder, darunter die USA und Australien, beschlossen, gentechnisch veränderte Pflanzen genauso zu regulieren wie konventionell gezüchtete Pflanzen.

In der Europäischen Union hat der EU-Gerichtshof jedoch 2018 entschieden, dass gentechnisch veränderte Pflanzen automatisch als gv gelten, d. h. es gelten die gleichen strengen Regeln und regulatorischen Verfahren wie für gv-Pflanzen.

Die Reaktion des Vereinigten Königreichs bleibt abzuwarten. Im Juli 2019 versprach Premierminister Boris Johnson, Großbritannien nach dem Brexit vom EU-Gentechnik-Regime zu befreien. „Lasst uns den außergewöhnlichen biowissenschaftlichen Sektor Großbritanniens von den Regeln der Antigenetik befreien. Lasst uns die fäuleresistenten Pflanzen entwickeln, die die Welt ernähren werden“, sagte er damals.

Halford kommentiert: „In den USA gibt es keine Regulierung für GE. In Europa fallen sowohl GM als auch GE in die gleiche Kategorie, die als „eine Veränderung der DNA, die nicht auf natürliche Weise auftreten könnte“ definiert wird. Daher ist es einfacher, GV und GV nach Europa zu importieren als sie anzubauen. Aber sie werden bereits verwendet Mais, Sojabohnen und Rapsöle werden routinemäßig als Tierfutter verwendet.“

Unterschiedliche Regulierungen haben wahrscheinlich Auswirkungen darauf, wo gentechnisch veränderte Lebensmittel aufgenommen werden und wo nicht. Die fehlende Regulierung in den USA könnte insofern ein Problem darstellen, als ein gentechnisch verändertes Lebensmittel mit einem anderen vermischt und nicht erfasst werden könnte.

„Eine der Sorgen ist, dass, wenn GE in den USA nicht reguliert ist, Sie möglicherweise etwas bekommen, bei dem die ursprüngliche GE mit etwas anderem vermischt wurde, aber etwas anderes nicht registriert oder aufgezeichnet wurde Am Ende gibt es keine Möglichkeit zu wissen, wie Sie dorthin gekommen sind“, sagt Halford.

In Europa hingegen könnte die weitere Entwicklung dadurch behindert werden, dass der Unterschied zwischen GV- und GV-Lebensmitteln nicht erkannt wird.

Ein interessanter Trend ist, dass Bereiche, in denen Nahrungsmittelarmut vorherrscht, konzeptionell offener für Gentechnik waren. Insbesondere Argentinien und Brasilien sind bedeutende Produzenten von GV-Pflanzen, und GV wird auch in Asien angebaut. In Afrika hat sich die Entwicklung langsamer entwickelt, aber Sudan, Ägypten und Kenia haben alle einen Anfang gemacht. „Man kann mit ziemlicher Sicherheit sagen, dass dort, wo GM existiert, GE folgen wird“, kommentiert Halford.

Eine weitere bemerkenswerte Möglichkeit besteht darin, dass GM zwar weitgehend von multinationalen Unternehmen übernommen wurde, GE jedoch relativ einfach durchzuführen ist und daher eine Reihe von KMU beteiligt sind. Daraus folgt, dass praktische Einzelfallanwendungen zur Linderung der Nahrungsmittelarmut schneller in den Vordergrund treten könnten als bei einem großen multinationalen Unternehmen, bei dem es auf die Größe ankommt.

Dazu muss die Technologie mit lokalen Kontexten kombiniert werden, sodass sie je nach Standort, Betriebsgröße, Bauernbildung, Zugang zu Informationen und Regierungsrichtlinien und deren Durchsetzung eingesetzt werden.

Qaim sagt: „Es ist wichtig zu verstehen, ob mit GE entwickelte Pflanzen von Kleinbauern erfolgreich genutzt werden können.“ Er schaut sich gentechnisch veränderte Lebensmittel an, um zu sehen, wie sich dies mit gentechnisch veränderten Lebensmitteln auswirken könnte, und sagt, dass Landwirte in Entwicklungsländern mehr von gentechnischer Herkunft profitieren könnten als Landwirte in entwickelten Ländern, die bereits von Gentechnik profitieren.

„Die Gründe sind zweifach“, erklärt er. „Erstens leiden Landwirte, die in tropischen und subtropischen Klimazonen tätig sind, oft unter höheren Schädlingsschäden, als durch die Einführung von GV reduziert werden können. Daher sind die effektiven Ertragszuwächse tendenziell höher als bei Landwirten, die in gemäßigten Zonen arbeiten. Zweitens sind die meisten gentechnisch veränderten Lebensmittel in Entwicklungsländern nicht patentiert, so dass die Saatgutpreise niedriger sind als in Industrieländern, wo Patentschutz viel häufiger ist.“

Die Schlussfolgerung ist, dass eine mangelnde Nachfrage aus Industrieländern aufgrund ihrer bereits bestehenden Beteiligung an Gentechnik dazu führen könnte, dass sich die Hersteller von Gentechnik in Entwicklungsländer wenden, in denen die Technologie stärker nachgefragt wird und auch größere Auswirkungen hätte.

Es besteht jedoch auch die Notwendigkeit, den Einsatz von GE in Verbindung mit effektiven Ernte- und Nacherntepraktiken in Betracht zu ziehen, um den Lebensmittelverlust zu minimieren. Effektive Lager- und Konservierungspraktiken tragen beispielsweise dazu bei, den Wert einer Ernte zu steigern und hochwertige Produkte zu identifizieren. Die Kombination von Faktoren trägt zusammen, um den wirtschaftlichen Gewinn für die Verarbeiter zu verbessern und eine lange Haltbarkeit und eine bessere Vermarktung verfügbarer Lebensmittel zu wettbewerbsfähigen Preisen zu gewährleisten.

„GE und insbesondere Crispr-Cas beantworten einige der Probleme rund um den Klimawandel und die Ernährungssicherheit“, sagt Custer. „Da spielt auch das eigentliche Pflanzenmanagement eine Rolle. Gentech-Pflanzen sind nur ein Teil eines komplexen Puzzles.“

Qaim schlussfolgert: „Natürlich erfordert eine nachhaltige Ernährungssicherheit mehr als nur gentechnisch veränderte Pflanzen. Vor dem Hintergrund des weiteren Bevölkerungswachstums, des Klimawandels und einer schwindenden natürlichen Ressourcenbasis wäre es jedoch unverantwortlich, die Potenziale der modernen Pflanzenbiotechnologie nicht zu nutzen.“

Auswirkungen des Klimawandels

Ernährungssicherheit ist ein langfristiges Thema. Inmitten der Covid-19-Pandemie haben die UN-Stiftung, führende Lebensmittelhersteller wie Unilever, Nestlé und PepsiCo und andere wie Bauernorganisationen, Akademiker und zivilgesellschaftliche Gruppen an die Führer der G7 und G20 geschrieben: und an andere Länder, um sie zu drängen, in die Nahrungsmittelproduktion und -verteilung zu investieren. Sie sagen, dass eine umweltverträgliche Nahrungsmittelproduktion und der Schutz der Landwirte in den Industrie- und Entwicklungsländern von entscheidender Bedeutung sind.

Der Brief betonte auch die Notwendigkeit, in die ökologische und soziale Nachhaltigkeit des Lebensmittelsystems zu investieren. In der Praxis würde dies neue Investitionen bedeuten, um die Pflanzenproduktion hoch genug zu halten und sich darauf zu konzentrieren, die Pflanzen selbst so nahrhaft wie möglich zu machen.

Dies ist kein neues Thema. Die Ziele der Vereinten Nationen für nachhaltige Entwicklung von 2015 zielen darauf ab, den weltweiten Hunger bis 2030 zu beenden. Obwohl sich die Unterernährung in den letzten 15 Jahren aufgrund internationaler Bemühungen und Investitionen in die landwirtschaftliche und wirtschaftliche Infrastruktur halbiert hatte, herrscht im Jahr 2020 immer noch ein erhebliches Maß an Ernährungsunsicherheit wird wahrscheinlich durch Covid-19 noch verschlimmert.

Hinzu kommen die Auswirkungen des Klimawandels, bei denen Wetterextreme einen erheblichen Einfluss auf die Pflanzenproduktion haben können, während die Weltbevölkerung wächst und das Ergebnis ein Kampf ist, genug Nahrung für die Menschen zu bekommen, die sie brauchen. Viele sagen voraus, dass Länder um Nahrung und Wasser kämpfen werden.

Die Landwirtschaft trägt natürlich selbst zur globalen Erwärmung bei. In seinem Bericht „Climate Change and Land“ von 2019 sagte das IPCC, dass die Landwirtschaft etwa 25 Prozent der globalen Treibhausgasemissionen ausmacht.

Matin Qaim argumentiert in einem Papier „Rolle neuer Pflanzenzüchtungstechnologien für Ernährungssicherheit und nachhaltige landwirtschaftliche Entwicklung“: „Die zunehmende Intensität der landwirtschaftlichen Produktion hat ihre Probleme. Der Klimawandel wird sich wahrscheinlich durch steigende Durchschnittstemperaturen, Hitze- und Wasserstress und zunehmende Häufigkeit von Wetterextremen negativ auf die landwirtschaftliche Produktion auswirken.“

Qaim fügt hinzu: „Arme Menschen in Afrika und Asien werden von Klimakatastrophen am stärksten betroffen sein, nicht nur, weil sie besonders anfällig für Preis- und Einkommensschocks sind, sondern auch, weil viele von ihnen für ihren Lebensunterhalt von der Landwirtschaft abhängig sind.“


Angewandte wirtschaftliche Perspektiven und Politik

Angewandte wirtschaftliche Perspektiven und Politik bietet ein Forum, um aktuelle und aufkommende politische Fragen innerhalb eines wirtschaftlichen Rahmens zu behandeln, der die Entscheidungsfindungs- und Politikgestaltungsgemeinschaft informiert.

AEPP begrüßt Beiträge zur Ökonomie öffentlicher Politikthemen im Zusammenhang mit Landwirtschaft, Tier-, Pflanzen- und menschliche Gesundheit Energie Umwelt Ernährung und Verbraucherverhalten internationale Entwicklung Naturgefahren natürliche Ressourcen Bevölkerung und Migration sowie regionale und ländliche Entwicklung.

Zwei Kategorien von Artikeln werden veröffentlicht in AEPP, Empfohlene Artikel und eingereichte Artikel. Featured Articles werden von den Redakteuren und Mitgliedern der Redaktion angefordert. Darüber hinaus begrüßen wir Vorschläge von Autoren für Featured Articles (zwei bis drei Beiträge), Mini-Special Issues bestehend aus Featured Articles (vier bis sieben Papers) oder Special Issues bestehend aus Featured Articles (acht oder mehr Papers). . Weitere Informationen finden Sie auf der Seite Autorenrichtlinien.


Software und Toolkits, die derzeit von ACE-Forschern verwendet werden

Die Open-Source-Plattform abcWirtschaft, entwickelt von Davoud Taghawi-Nejad für Agent-Based Computational Economics Anwendungen, ist eine Python-basierte Modellierungsplattform für Wirtschaftssimulationen. abcEconomics verfügt über Standardfunktionen, um bestandsflusskonsistente Simulationen von Produktions-, Handels- und Konsumprozessen für Unternehmen und Verbraucher zu ermöglichen. abcEconomics ermöglicht es Modellierern, Agenten als gewöhnliche Python-Klassenobjekte zu programmieren, aber die resultierenden Programme, wenn sie groß sind (z. Ausführliche Informationen zum Herunterladen, Installieren und Programmieren mit abcEconomics finden Sie im Folgenden abcEconomics Dokumentationshandbuch.

Die Adaptiver Modellierer, entwickelt von Jim Witkam (Altreva, Inc.), erstellt agentenbasierte Marktsimulationsmodelle für die Preisprognose von realen Aktien, Währungen oder anderen am Markt gehandelten Wertpapieren. Das agentenbasierte Modell simuliert einen Finanzmarkt, der aus Tausenden von Agenten besteht, deren (technische) Handelsregeln sich durch eine spezielle adaptive Form der genetischen Programmierung entwickeln. Die Entwicklung der Handelsregeln in Kombination mit der Marktpreisdynamik treibt die Agentenpopulation dazu an, wiederkehrende Preismuster zu erkennen und zu antizipieren und sich gleichzeitig an sich änderndes Marktverhalten anzupassen. Prognosen können entweder auf dem Verhalten aller Agenten oder auf einer dynamischen Gruppe der Agenten mit der besten Leistung basieren. Für ACE-Forscher kann diese Anwendung von Interesse sein, um das Verhalten und die aufkommenden Vorhersagefähigkeiten eines agentenbasierten Marktmodells zu untersuchen, das Informationen aus einem realen Markt enthält. Es sind mehrere Modellinitialisierungsoptionen enthalten, wie z. B. eine vom Benutzer konfigurierbare genetische Programmiermaschine zum Erstellen von Handelsregeln. Die Simulation von Zero Intelligence Trading wird ebenfalls unterstützt. Verschiedene Bevölkerungsstatistiken und andere Daten können in Echtzeit in Diagrammen, Verteilungshistogrammen und Streudiagrammen visualisiert werden. Daten können zur weiteren Analyse in anderen Anwendungen in CSV-Dateien exportiert werden. Eine kostenlose (nicht auslaufende) Testversion mit ausführlicher Dokumentation kann von der oben genannten Adaptive Modeler-Homepage heruntergeladen werden. Adaptiver Modellierer ist auf Windows-Plattformen ausgerichtet und erfordert eine Installation von Microsoft .Net 2.0 oder höher.

Von dem Cormas-Website: „Ressourcenmanagementsysteme sind komplex, wenn gemeinsame Ressourcen von mehreren Benutzern genutzt werden. Ökologische Dynamiken werden auf verschiedenen Ebenen ausgedrückt, dh individuell, Bevölkerung und Gemeinschaft. Soziale Dynamiken werden auf der Ebene von Einzelpersonen oder Organisationen ausgedrückt. In erneuerbaren Ressourcen Management müssen die Wechselwirkungen zwischen der Dynamik der Landwirtschaft und der Ressourcennutzung berücksichtigt werden. Computermodellierung erleichtert das Verständnis dieser Wechselwirkungen Interaktionen zwischen Individuen und Gruppen, die (erneuerbare) Ressourcen nutzen."

EuGH ist ein in Java geschriebenes evolutionäres Berechnungssystem für die Forschung. Es wurde so konzipiert, dass es sehr flexibel ist, wobei fast alle Klassen (und alle ihre Einstellungen) zur Laufzeit durch eine vom Benutzer bereitgestellte Parameterdatei dynamisch bestimmt werden. Alle Strukturen im System sind so angeordnet, dass sie leicht veränderbar sind. Trotzdem wurde das System auf Effizienz ausgelegt. ECJ wurde im ECLab Evolutionary Computation Laboratory der George Mason University entwickelt. Das Schwesterprojekt des EuGH ist MASON, ein Multi-Agenten-Simulationssystem, das gut mit dem EuGH verzahnt ist.

Gambit ist eine Bibliothek mit spieltheoretischer Software und Werkzeugen für die Konstruktion und Analyse endlicher Extensiv- und Normalformspiele, die derzeit von Forschern am Department of Economics der Texas A & M University gepflegt werden. Gambit enthält eine grafische Benutzeroberfläche, die Gambit-Befehlssprache und eine Bibliothek mit C++-Quellcode zur Darstellung von Spielen, die für die Verwendung in anderen Anwendungen geeignet sind. Der gesamte Gambit-Quellcode ist frei verfügbar und steht unter der GNU General Public License.

Vom Entwickler (Steve Phelps, U of Liverpool): The JASA (Java-Auktionssimulator-API) wurde auf die portiert Java Agent-Based Modeling (JABM) Toolkit. JABM enthält Funktionen zur Visualisierung der dynamischen Handelsnetzwerke, die entstehen, wenn Agenten in einem auftragsgesteuerten Markt miteinander handeln. Ein Video dieser Visualisierung finden Sie Hier. Weitere Details zum JABM-Toolkit finden Sie in einem Arbeitspapier mit dem Titel "Agentenbasierte Modellierung mit dem JABM-Toolkit".

Die Java-Tutorial: Ein praktischer Leitfaden für Programmierer, verwaltet von Sun Microsystems, Inc., ist ein praktischer Online-Leitfaden für Programmierer mit Hunderten von vollständigen Arbeitsbeispielen und zahlreichen Hinweisen auf grundlegende Informationen (Ausführen Ihres ersten Programms, Erste Schritte, Erlernen der Java-Sprache usw.). Das Tutorial ist in Gruppen von grundlegenden und spezialisierten Lektionen zu verschiedenen Themen unterteilt: zum Beispiel Erste Schritte mit dem Schreiben von Java-Applets wesentliche Java-Klassen Erstellen einer GUI mit benutzerdefinierten JFC/Swing-Netzwerk-2D-Grafiken und Java Beans. Hunderte von vollständigen Arbeitsbeispielen sind in diesen Lektionen enthalten.

Pietro Terna (Wirtschaftswissenschaften, Universität Turin, Italien) hat den Swarm-basierten Java Enterprise Simulator (jES). Ziel von jES ist es, die Konstruktion von Simulationsmodellen sowohl für reale als auch für virtuelle Unternehmen (Firmen) zu ermöglichen. Der Simulator kann entweder ein einzelnes Unternehmen oder ein System von Unternehmen (z. B. innerhalb eines Bezirks oder innerhalb eines virtuellen Unternehmenssystems) modellieren. Die neueste Version von jES, zusammen mit einer vollständigen Benutzeranleitung, finden Sie Hier.

EIN Labor für Simulationsentwicklung (Lsd) wurde von Marco Valente (Universität L'Aquila) für die Evolutionssimulationsmodellierung entwickelt, wie das berühmte Nelson-Winter-Modell (1982) des Schumpterschen Wettbewerbs in einer Industrie oder Wirtschaft veranschaulicht. Lsd-Anwendungen verfolgen einen systemdynamischen (Differenz-/Differentialgleichungen)-Ansatz, der Replikatordynamiken verwendet, anstatt einen agentenbasierten Bottom-up-Ansatz, aber die zugrunde liegende Verwendung von C++ legt nahe, dass auch ein mehr agentenbasierter Ansatz möglich sein könnte. Für eine ausführliche Diskussion von Lsd siehe: M. Valente und E.S. Anderson, "Ein praktischer Ansatz zur Evolutionssimulation: Nelson-Winter-Modelle im Labor für Simulationsentwicklung", Das elektronische Journal für evolutionäre Modellierung und Wirtschaftsdynamik, Nr. 1003, Ausgabe 1, 15. Januar 2002.

Das Evolutionary Computation Laboratory and Center for Social Complexity der George Mason University verwaltet die Entwicklung der MASON Multiagenten-Simulations-Toolkit. MASON enthält sowohl eine Modellbibliothek als auch eine optionale Suite von Visualisierungswerkzeugen in 2D und 3D. MASON ist eine gemeinsame Anstrengung des ECLab (Evolutionary Computation Laboratory) der George Mason University und des GMU Center for Social Complexity und wurde von Sean Luke, Gabriel Catalin Balan und Liviu Panait mit Hilfe von Claudio Cioffi-Revilla, Sean Paus, Daniel . entworfen Kuebrich und Keith Sullivan. Eine SwarmFest04-Präsentation zu MASON kann abgerufen werden Hier.

MATLAB ist eine Hochleistungssprache für Technical Computing. Informationen zu MATLAB erhalten Sie beim MathWorks-Website. Warren Thorngate hat einen Artikel mit dem Titel Soziale Simulation mit MATLAB lehren das erschien im online Zeitschrift für künstliche Gesellschaften und soziale Simulation, Volume 3, No. 1, 2000. In diesem Artikel erklärt Thorngate, warum MATLAB seine bevorzugte Programmiersprache ist, um Simulationsprogrammiertechniken für Simulationsneulinge zu unterrichten.

Modulco ist ein objektorientiertes modulares Framework, das entwickelt wurde, um soziale Phänomene mit mehreren Agenten wie Märkte, Organisationen, Netzwerkeffekte und Bevölkerungsdynamik zu simulieren. Die Entwickler sind Denis Phan und Antoine Beugnard. Weitere Informationen, einschließlich herunterladbarer Anwendungen und bibliografischer Informationen, finden Sie auf der oben genannten Moduleco-Website.

NetLogo, ein Nachkomme von StarLogo (siehe unten), ist eine plattformübergreifende Allzweck-Komplexitätsmodellierungs- und Simulationsumgebung des Center for Connected Learning and Computer-Based Modeling (CCL), Northwestern University, Evanston, Illinois. NetLogo enthält eine große Bibliothek mit Beispielmodellen und Codebeispielen, die Anfängern den Einstieg in die Erstellung von Modellen erleichtern. NetLogo wird von Forschungslaboren und Universitätskursen in einer Vielzahl von Bereichen der Sozial- und Naturwissenschaften verwendet. Ein kostenloser Download sowie ein Benutzerhandbuch sind auf der oben genannten NetLogo-Website erhältlich.

PyABM ist ein Open-Source-Toolkit (GPL-lizenziert), das darauf abzielt, die Programmierung und Analyse von agentenbasierten Modellen, die in der Programmiersprache Python geschrieben sind, zu vereinfachen. Das Toolkit zielt darauf ab, die Modell- und Szenarioentwicklung zu standardisieren und die Dokumentation und Wiederholbarkeit der Modellergebnisse sicherzustellen. Die Entwicklung von PyABM ist im Gange.

Von der offiziellen Website für die Python-Sprache: "Python ist eine interpretierte, interaktive, objektorientierte Programmiersprache. Es wird oft mit Tcl, Perl, Scheme oder Java verglichen. Python kombiniert bemerkenswerte Leistung mit einer sehr klaren Syntax. Es verfügt über Module, Klassen, Ausnahmen, dynamische Datentypen auf sehr hoher Ebene und dynamische Typisierung. . Die Python-Implementierung ist portabel: Sie läuft auf vielen UNIX-Marken (und) auf Windows, DOS, OS/2, Mac, Amiga. ."

Die wichtigste Ressource für alles, was mit Python zu tun hat, einschließlich der neuesten Softwareversionen, ist die Python-Website. Forscher, die neu in Python sind, möchten vielleicht die Ratgeber für Anfänger. Eine weitere Ressource ist Anakonda, eine kostenlose Python-Distribution, die viele Pakete enthält. Ebenfalls, Jupyter ist eine integrierte Entwicklungsumgebung (IDE), die Python, R und andere Programmiersprachen unterstützt.

Darüber hinaus haben Claudius Grönlbner (Johannes Kepler University) und Torsten Heinrich (University of Oxford) verschiedene einführende Python-Installationsmaterialien zur Unterstützung eines Kurses mit dem Titel Komplexität: Theorie und Computermodelle. Diese Materialien umfassen: (i) eine Installationsanleitung für Python und erforderliche Pakete (Mac/Windows/Linux) (ii) allgemeine Anweisungen für die Installation eines Editors oder einer integrierten Entwicklungsumgebung (IDE) (iii) spezifische Anweisungen für die Installation der Jupyter IDE (Mac/Windows/Linux) und (iv) Testskript für Installationstests.

Repast (REcursive Porous Agent Simulation Toolkit) ist ein agentenbasiertes Simulationstoolkit, das speziell für sozialwissenschaftliche Anwendungen entwickelt wurde. Ursprünglich von Forschern der University of Chicago und des Argonne National Laboratory entwickelt, wird Repast heute von der gemeinnützigen Freiwilligenorganisation ROAD (Repast Organization for Architecture and Development) verwaltet. Repast wurde in den folgenden Versionen veröffentlicht: RepastJ (Java-basiert) RepastPy (basierend auf der Python-Skriptsprache) Repast.Net (in C# implementiert, aber jede .Net-Sprache kann verwendet werden) Repast S (Simphony, Java-basiert) und Repast HPC (High Performance Computing). Repast läuft auf praktisch allen modernen Computerplattformen (z. B. Windows, Mac OS und Linux). Die neuesten Repast-Releases sowie detaillierte technische Informationen zur Installation und Nutzung von RePast finden Sie auf der RePast Sourceforge-Website.

Leigh Tesfatsion (Wirtschaftswissenschaften, Iowa State University, Ames, IA) hat eine RePast-Leitfaden zum Selbststudium um Neulingen den Einstieg in die Programmierung mit Repast in einer Java Integrated Development Environment (IDE) zu erleichtern. Zu den behandelten Themen gehören: Einführung in die agentenbasierte Modellierung Einführung in die agentenorientierte Programmierung Einführung in Java Kennenlernen der RePast-Programmierung mit RePast und möglichen Anwendungsgebieten der RePast-Modellierung. Es werden umfangreiche Links zu Online-Ressourcenmaterialien bereitgestellt. Obwohl einige Vorkenntnisse in der Programmierung wünschenswert sind, setzt der Studienführer diese Erfahrung nicht voraus.

  • EIN Welt Definieren der virtuellen Umgebung, in der die Simulation stattfindet
  • Bevölkerungen von autonomen Agenten, die die Welt bewohnen
  • Programme das Verhalten der Agenten steuern
  • Genetische Mechanismen Nachahmung der natürlichen Selektion, die auf die Programme der Agenten einwirkt.

SimX ist eine von GitHub gehostete Bibliothek für die Entwicklung paralleler, ereignisdiskreter, verteilter Speichersimulationen in Python. SimX ist hauptsächlich in C++ geschrieben und bietet dem Simulationsmodellierer die Kernfunktionen, die in einer parallelen Simulationsbibliothek benötigt werden, wie Ereigniswarteschlangen, Zeitvorschub, Domänenpartitionierung, Synchronisierung, Objektserialisierung und Nachrichtenweitergabe. SimX-APIs werden Python ausgesetzt, was die schnelle Entwicklung und das Prototyping einer parallelen Simulation vollständig in Python ermöglicht. SimX ist freie Software, die unter der GNU LGPL-Lizenz erhältlich ist.

Thomas Maxwell, Ferdinando Villa und Robert Costanza, alle mit dem International Institute for Ecological Economics (Center for Environmental Science, University of Maryland System), haben eine integrierte Umgebung für leistungsstarke räumliche Modellierung namens Räumliche Modellierungsumgebung (SME). Von der KMU-Homepage: "Diese Umgebung, die auf transparente Weise symbolbasierte Modellierungsumgebungen mit fortschrittlichen Computerressourcen verknüpft, ermöglicht es Modellierern, Simulationen in einer benutzerfreundlichen, grafischen Umgebung zu entwickeln, die keine Kenntnisse in der Computerprogrammierung erfordert. Automatische Codegeneratoren konstruieren (räumliche) ) Simulationen und ermöglichen die verteilte Verarbeitung über ein Netzwerk von parallelen und seriellen Computern, was einen transparenten Zugriff auf modernste Rechenanlagen ermöglicht.Die Umgebung erlegt die Einschränkungen der Modularität und Hierarchie beim Modellentwurf auf und unterstützt die Archivierung von wiederverwendbaren Modellkomponenten definiert in unserer Modularen Modellierungssprache (MML)."

StarLogo Nova ist eine visuell programmierbare Modellierungsumgebung zum Erkunden der Funktionsweise dezentraler Systeme, die speziell für K-12-Studenten benutzerfreundlich gestaltet wurde. StarLogo Nova kann verwendet werden, um viele reale Phänomene wie Vogelschwärme, Verkehrsstaus, Ameisenkolonien und einfache Marktwirtschaften zu modellieren. Umfangreiche Unterstützung (Tutorials, Demos, Diskussionsgruppe für Benutzer. ) wird auf der StarLogo Nova-Website bereitgestellt.

Schwarm ist im Wesentlichen eine Sammlung von Softwarebibliotheken, geschrieben in Objective C, die von Forschern des Santa Fe Institute entwickelt wurde, um diskrete Ereignissimulationen komplexer Systeme mit heterogenen Elementen oder Agenten zu konstruieren. Einige untergeordnete Bibliotheken, die mit Objective C verbunden sind, sind ebenfalls in Tk geschrieben, einer Skriptsprache, die grundlegende grafische Werkzeuge wie Grafiken, Fenster und Eingabe-Widgets implementiert.

Das in C++ (Open-Source) implementierte Trade Network Game (TNG) kombiniert evolutionäres Gameplay mit bevorzugter Partnerauswahl. Aufeinanderfolgende Generationen von Händlern mit eingeschränkten Ressourcen wählen und verweigern Handelspartner auf der Grundlage ständig aktualisierter erwarteter Auszahlungen, beteiligen sich an riskanten Geschäften, die als Zwei-Personen-Spiele modelliert sind, und entwickeln ihre Handelsstrategien im Laufe der Zeit weiter. Der modulare Aufbau des TNG-Frameworks erleichtert das Experimentieren mit alternativen Spezifikationen für Marktstruktur, Handelspartner-Matching, Erwartungsbildung und Handelsstrategieentwicklung. Der TNG-Rahmen kann verwendet werden, um die evolutionären Implikationen dieser Spezifikationen auf drei verschiedenen Ebenen zu untersuchen: Bildung von Handelsnetzwerken (wer handelt mit wem und mit welcher Regelmäßigkeit), Verhaltensweisen von Händlern in Handelspartnerbeziehungen und soziale Wohlfahrtsergebnisse. Der TNG-Quellcode und das Handbuch sowie Forschungsartikel zum TNG sind erhältlich bei der TNG-Startseite.

Ventana Systems, Inc., Harvard, Massachusetts, wurde 1985 mit dem Ziel gegründet, groß angelegte Simulationsmodelle zu entwickeln, die sowohl geschäftliche als auch technische Elemente integrieren, um schwierige Managementprobleme zu lösen. Ventana Systems unterstützt jetzt eine eigene Simulationssprache namens Vensim. Von der Vensim-Homepage: "Vensim wird zum Entwickeln, Analysieren und Verpacken hochwertiger dynamischer Feedback-Modelle verwendet. Modelle werden grafisch oder in einem Texteditor erstellt. Zu den Funktionen gehören dynamische Funktionen, Subskription (Arrays), Monte-Carlo-Sensitivitätsanalyse, Optimierung, Datenverarbeitung, Anwendungsschnittstellen und vieles mehr. . Vensim PLE (Personal Learning Edition) ist eine Software, die Ihnen den Einstieg in die Systemdynamikmodellierung erleichtert und für den Bildungsbereich kostenlos und für den kommerziellen Gebrauch kostengünstig ist der Systemdynamik."


8. Belletristik

Modelle beinhalten natürlich Idealisierungen. Es wurde jedoch argumentiert, dass einige Arten der Idealisierung, die bei der Modellierung in der Computersimulation eine besonders wichtige Rolle spielen, speziell sind, und zwar insofern, als sie den Titel "Fiktion" verdienen. In diesem Abschnitt werden Versuche erörtert, Fiktionen zu definieren und zu erforschen ihre Rolle in der Computersimulation.

Es gibt zwei unterschiedliche Denkrichtungen über die Rolle von Fiktionen in der Wissenschaft. Laut einem sind alle Modelle Fiktionen.Motiviert wird diese Denkweise durch die Berücksichtigung beispielsweise der Rolle des „idealen Pendels&rdquo in der Wissenschaft. Wissenschaftler, so wird argumentiert, machen oft Behauptungen über diese Art von Entitäten (z. B. "das ideale Pendel hat eine Periode proportional zur Quadratwurzel seiner Länge", aber sie sind in der realen Welt nirgendwo zu finden, daher müssen sie fiktive Entitäten sein . Diese Argumentation über fiktive Entitäten in der Wissenschaft hat nichts mit Computersimulation zu tun&mdashreader, die sich für dieses Thema interessieren, sollten den Beitrag zur wissenschaftlichen Repräsentation [in Vorbereitung] konsultieren.

Eine andere Denkrichtung über Fiktionen beschäftigt sich mit der Frage, welche Arten von Darstellungen in der Wissenschaft als fiktiv anzusehen sind. Dabei geht es weniger um die Ontologie wissenschaftlicher Modellentitäten, sondern um den Repräsentationscharakter verschiedener postulierter Modellentitäten. Hier argumentiert Winsberg (2009c), dass Fiktionen eine besondere Verbindung zu Computersimulationen haben. Oder besser gesagt, dass einige Computersimulationen Elemente enthalten, die am besten typisieren, was wir in der Wissenschaft als fiktive Darstellungen bezeichnen könnten, auch wenn diese Darstellungen in Simulationen nicht eindeutig vorhanden sind.

Er stellt fest, dass die erste oben erwähnte Vorstellung von einer Fiktion, die „jede Darstellung, die der Realität widerspricht, zu einer Fiktion macht&rdquo (S. 179) unserer gewöhnlichen Verwendung des Begriffs entspricht: eine grobe Karte ist keine Fiktion. Dann schlägt er eine alternative Definition vor: Sachbücher werden als &ldquogut genug&rdquo-Leitfaden für einen Teil der Welt angeboten (S. 181), die Belletristik ist es nicht. Aber die Definition muss verfeinert werden. Nehmen Sie die Fabel von der Heuschrecke und der Ameise. Obwohl die Fabel Lektionen darüber bietet, wie die Welt ist, ist sie immer noch Fiktion, weil sie „ein nützlicher Leitfaden für die Art und Weise, wie die Welt in einem allgemeinen Sinne ist&rdquo ist, und nicht eine spezifische Anleitung für die Art und Weise, wie ein Teil der Welt ist, &ldquoprima facie repräsentativ target&rdquo, eine singende Heuschrecke und eine werktätige Ameise. Sachbücher dagegen &ldquozeigen auf einen bestimmten Teil der Welt&rdquo und sind ein Wegweiser zu diesem Teil der Welt (S. 181).

Derartige fiktive Komponenten von Modellen werden in bestimmten Computersimulationen paradigmatisch veranschaulicht. Zwei seiner Beispiele sind das „Silogenatom&rdquo und „künstliche Viskosität&rdquo. Silogenatome erscheinen in bestimmten nanomechanischen Modellen von Rissen in Silizium&mdasha-Spezies der Art von Mehrskalenmodellen, die Quantenmechanik und Molekularmechanik wie in Abschnitt 2.3 erwähnt vermischen. Die silogenhaltigen Modelle der Rissausbreitung in Silizium beschreiben den Riss selbst mit Quantenmechanik und die unmittelbare Umgebung des Risses mit klassischer Molekulardynamik. Um die Modellierungsgerüste in den beiden Regionen zusammenzuführen, wird die Grenze so behandelt, als ob sie &lsquosilogen&rsquo-Atome enthält, die eine Mischung aus den Eigenschaften von Silizium und denen von Wasserstoff aufweisen. Silogenatome sind Fiktionen. Sie werden nicht einmal als &lsquogut genug&rsquo-Beschreibung der Atome an der Grenze angeboten– ihre prima facie-repräsentativen Ziele. Aber sie werden verwendet, damit das Gesamtmodell hoffen kann, die Dinge richtig zu machen. Somit ist das Gesamtmodell keine Fiktion, sondern eine seiner Komponenten. Künstliche Viskosität ist ein ähnliches Beispiel. Flüssigkeiten mit abrupten Erschütterungen sind in einem Rechengitter schwer zu modellieren, da sich die abrupten Erschütterungen innerhalb einer einzelnen Gitterzelle verstecken und durch einen solchen Algorithmus nicht aufgelöst werden können. Künstliche Viskosität ist eine Technik, die vorgibt, dass die Flüssigkeit hochviskos ist, genau dort, wo der Schock ist, so dass der Schock weniger abrupt wird und über mehrere Gitterzellen verwischt. Die falsche Viskosität und damit die Dicke des Stoßdämpfers trägt dazu bei, dass das Gesamtmodell „gut genug funktioniert.&rdquo Auch hier ist das Gesamtmodell der Flüssigkeit keine Fiktion, es ist ein ausreichend zuverlässiger Leitfaden für das Verhalten des Flüssigkeit. Aber die Komponente künstliche Viskosität ist eine Fiktion und wird nicht verwendet, um den Stoß zuverlässig zu modellieren. Es wird in ein größeres Modellierungs-Framework integriert, um dieses größere Framework „zuverlässig genug zu machen.&rdquo

Dieser Bericht hat zwei Arten von Kritik auf sich gezogen. Toon (2010) hat argumentiert, dass diese Definition einer Fiktion zu eng ist. Er gibt Beispiele für historische Fiktionen wie Ich, Claudius, und Schindler&rsquos Arche. Toon unterstützt also vermutlich eine breitere Auffassung der Rolle von Fiktionen in der Wissenschaft, wonach sie in der Computersimulation keine besonders prominente oder erhöhte Rolle spielen.

Gordon Purves (demnächst) argumentiert, dass es Beispiele für Fiktionen in Rechenmodellen (sein Beispiel sind sogenannte &ldquoimaginary cracks&rdquo) und anderswo gibt, die die oben diskutierten strengen Anforderungen nicht erfüllen. Im Gegensatz zu Toon möchte er jedoch auch fiktive Modellierungselemente von den nicht-fiktionalen abgrenzen. Seine Hauptkritik bezieht sich auf das Kriterium der Fiktionalität in Bezug auf soziale Nutzungsnormen. Purves argumentiert, dass wir in der Lage sein sollten, zu entscheiden, ob eine Modellierung ohne solche Normen eine Fiktion ist oder nicht. So will er eine intrinsische Charakterisierung einer Science Fiction finden. Sein Vorschlag nimmt als konstitutiv für Modellfiktionen an, dass sie nicht die Eigenschaft haben, die Laymon (1985) als „stückweise Improvability&rdquo (PI) bezeichnete. PI ist ein Merkmal vieler Modelle, bei denen es sich um Idealisierungen handelt. Es besagt, dass Ihr Modell mit der Entidealisierung immer genauer wird. Aber wenn Sie ein Silogenatom deidealisieren, erhalten Sie keine immer genauere Simulation eines Siliziumrisses. Aber Purves hält dieses Versagen von PI für konstitutiv für eine Fiktion und nicht nur für ein Symptom.


Schau das Video: Ross Antony - Willkommen im Club Offizielles Video (Juli 2022).


Bemerkungen:

  1. Nemi

    Ich glaube, Sie haben sich geirrt. Ich kann es beweisen. Schreiben Sie mir in PM, besprechen Sie es.

  2. Kigakasa

    Ideale Variante

  3. Ritchie

    Meiner Meinung nach hast du nicht Recht. Ich kann es beweisen.

  4. Case

    Es tut mir leid, dass ich bei nichts helfen kann. Ich hoffe, andere helfen Ihnen hier.



Eine Nachricht schreiben