Synthetische Biologie

Synchrone Langzeit-Oszillationen 

von Mariam Rohmorser

Nicht jeder Mensch ist für den Nachtdienst geeignet. Auch der Sekundenschlaf beim Autofahren kommt selten tagsüber vor, sondern eher bei Nachtfahrten. Und nach einer langen Flugreise kämpfen viele Menschen mit den Symptomen eines Jetlags: Müdigkeit und Leistungsschwäche. Ob es gerade helllichter Tag ist oder tiefdunkle Nacht entscheidet in großem Umfang darüber, wie leistungsfähig wir sind, wie gut wir uns konzentrieren können, was für hormonelle Signale uns beeinflussen und so weiter. Licht oder Dunkelheit, das sind klare Umgebungsbedingungen, die Einfluss auf uns nehmen. Allerdings wäre es ungünstig, wenn Menschen beim Gang in den Keller sofort einschlafen, nur weil kurzzeitig das Sonnenlicht fehlt.

Die zirkadiane Uhr

Hier kommt die sogenannte zirkadiane Uhr ins Spiel. Man findet sie in vielen Lebewesen und sie bleibt wie eine mechanische Uhr auch ohne äußere Einwirkung für einige Zyklen stabil. Bei Cyanobakterien bleibt der Rhythmus durch eine Kombination von Kontrollmechanismen transkriptionaler und post-translationaler Natur sogar über Wochen konstant. Durch äußere Faktoren können die Oszillationen wieder synchronisiert und richtig „eingestellt“ werden. Sonnenlicht ist hier ein omnipräsenter Taktgeber zum Nachjustieren der Uhr. Erst durch dieses Zusammenspiel kann ein 24-stündiger Rhythmus entstehen, der uns und andere Lebewesen darin unterstützt, angepasst an die Umwelt zu leben.

Synchrone Langzeit-Oszillationen spielen in der Natur also eine wichtige Rolle, wenn es um den Tag-Nacht- Rhythmus geht. Synchron müssen hierbei z.B. die vielen Körperzellen eingestellt sein, damit sich nicht eine Zelle in einem ganz anderen Zustand befindet als ihre Nachbarin. Langzeit bedeutet beim Wechsel von Tag und Nacht eine Periodenlänge von 24 Stunden, sodass man genau 1 Schlafpause pro 24 Stunden im Bett verbringt (auch wenn manche Mittagsschlaffreunde eine kürzere Periodenlänge zu haben scheinen). Ebenso ist sehr angenehm, wenn man jeden Morgen nach dem Weckerklingeln die gleiche unbändige Energie hat und nicht ständigen Schwankungen unterlegen ist. Oszillationen sind idealerweise also gleichmäßiger Natur. Aber wer schon einmal Sinuskurven freihand gezeichnent hat, weiß wie schwierig das sein kann.

Und genau das ist das Problem, wenn man versucht, mithilfe der synthetischen Biologie gleichmäßige und robuste Oszillationen zu erzeugen, die als orthogonales System [siehe Einführung „Orthogonale Systeme“] auch in unterschiedlichen Zellen und unter verschiedenen Umgebungsbedingungen unverändert im Takt bleiben. Eine Uhr sollte schließlich auch nicht schneller ticken, wenn die Zimmertemperatur nach dem Stoßlüften absinkt oder dadurch plötzlich wieder mehr Sauerstoff in der Luft ist.

Der Repressilator

Beim Repressilator handelt es sich um einen genetischen Schaltkreis, der Oszillationen erzeugen kann [siehe
Einführung „Genetische Schaltkreise“]. Im Unterschied zum bereits in der Einführung beschriebenen bistabilen Zustand befindet sich das System bei Oszillationen nicht in verharrenden, sondern in kreislaufartig wechselnden Zuständen. Der Repressilator in seiner ursprünglichen Form wurde im Jahr 2000 konstruiert. Er besteht aus zwei Plasmiden, also ringförmigen DNA-Strängen (siehe Abbildung 1, oben).

oscillator-1.png

Abb. 1: Der Repressilator aus dem Jahr 2000. Oben) Genetischer Schaltkreis, der Oszillationen erzeugen kann. Das Repressilatorplasmid fungiert als Schaltkreis, von dessen Zustand der Zustand des Reporterplasmids abhängig ist. Der Reporter besitzt das Gen gfp zur Produktion des grün fluoreszierenden Proteins GFP, mit dessen Hilfe die Oszillationen visualisiert werden können. Gesteuert wird gfp durch den Promotor P<sub>tet</sub>. Auf dem Repressilator befinden sich drei Gene (tetR, lacI und λcI), die jeweils für Repressoren kodieren: den Tetracyclin-, Lamda- und lacI-Repressor (TetR, CI und LacI). Die Repressoren binden jeweils einen bestimmten Promotor (Ptet, λPR oder Plac) und reprimieren das nachgeschaltete Gen. Synchronisiert werden kann der Schaltkreis in mehreren Zellen durch Zugabe von IPTG, einem Laktoseanalogon, das den Promotor Plac induziert und zur Synthese von TetR führt. Weiterhin ist der Replikationsursprung der Plasmide (Ori) zur erkennen. Unten) Die entstehenden Oszillationen können durch die Fluoreszenz von GFP visualisiert werden. GFP oszilliert nur dann regelmäßig und synchron, wenn auch die zugehörigen Bestandteile des Schaltkreises synchron oszillieren, darunter die Repressoren TetR, LacI und CI.

 

Das eine Plasmid fungiert als Reporter. Auf ihm befindet sich das Gen gfp zur Synthese von GFP, dem grün fluoreszierenden Protein. Abhängig davon, ob und wie viel GFP vorhanden ist, lässt sich eine deutliche grüne Fluoreszenz erkennen. Vom dazugehörigen Promotor (Ptet) ist wiederum abhängig, ob das Gen gfp zur Produktion von GFP abgelesen werden kann oder nicht.

Der Reporter kann sich also in zwei Zuständen befinden:

  • aktiver Zustand des Reporters: Bildung von GFP → Fluoreszenz
  • reprimierter Zustand des Reporters: keine Bildung von GFP

Der eigentliche Schaltkreis, von dessen Zustand der Zustand des Reporters abhängig ist, befindet sich auf dem zweiten der beiden Plasmide, dem Repressilator. Auf ihm befinden sich drei Gene (tetR, lacI und λcI), die jeweils für Repressoren kodieren: den Tetracyclin-, Lamda- und lacI-Repressor (TetR, CI und LacI). Diese Repressoren inaktivieren jeweils das vorige benachbarte Gen, indem sie an dessen Promotor binden – und zwar solange, bis biologische Abbauprozesse die Proteine wieder eliminieren.

Die Repressoren binden wie folgt an die (den Genen vorgeschalteten) Promotoren und stoppen die Synthese des Genprodukts:

Repressor + Promotor Gen (kodiert für Protein)
TetR + Ptet gfp (GFP)
CI + λPR lacI (LacI)
LacI + Plac tetR (TetR)

Schaut man sich die Abbildung 1 an, kann man sich den Kreislauf verdeutlichen, wobei dieser synchron mit der Zugabe des Plac-Induktors IPTG gestartet werden kann. Dabei spielt das Gen tetR eine Schlüsselrolle, denn das gebildete Protein TetR reprimiert (durch Bindung an den Promotor Ptet) zwei Gene: gfp und λcI. Es versetzt also den Reporter direkt in den inaktiven, d.h. reprimierten Zustand (keine Fluoreszenz) und sorgt gleichzeitig dafür, dass die Bildung des Repressors CI gestoppt wird. Ohne die Anwesenheit von CI kann lacI abgelesen und LacI gebildet werden. LacI reprimiert allerdings tetR. Wird die Synthese von TetR gestoppt und das zuvor gebildete und noch vorhandene TetR proteolytisch abgebaut, lässt auch die Repression von gfp und λcI wieder nach, sodass nun der Reporter in den aktiven Zustand „umschaltet“ und GFP gebildet werden kann – zu Beobachten durch das grüne Leuchten des fluoreszierenden Proteins. Wenn nun λcI wieder abgelesen werden kann, führt das gebildete CI zur Repression von lacI. Ohne Neusynthese von LacI wird der vorhandene Bestand jedoch abgebaut und gibt tetR wieder „frei“, sodass neue TetR- Repressoren synthetisiert werden können. Der Zyklus ist geschlossen und eine Periode beinhaltet diesen kreislaufartigen Ablauf.

Der Repressilator als synthetisches Konstrukt stellte eine Sensation dar. Jedoch war das oszillierende Leuchten der Zellen noch recht unregelmäßiger Natur. 2016 erst wurde er derart weiterentwickelt, dass er sehr regelmäßige und langanhaltende ungekoppelte Oszillationen zeigt (siehe Abbildung 2).

 

oscillator-2.png

Abb. 2: Synchron fluoreszierende Flüssigkultur. Die Zellen leuchten mit einer Periodenlänge von etwa 5 h grün. Taktgeber war hier IPTG, das zu Beginn den Zellen hinzugefügt wurde und den Repressilator-Schaltkreis in allen Zellen in den selben Zustand versetzt hat – zum Erzeugen synchroner Fluoreszenz (verändert nach [1]).

 

Abbildung 2 zeigt eine flüssige Kultur, deren Zellen mit einer Periodenlänge von etwa 5 h grün fluoreszieren – und zwar synchron. Erreicht wurde diese Präzision durch mehrere Reduktionen und Veränderungen des originalen Repressilators.

Zum einen wurde die Funktion des Reporters in das Plasmid des Repressilators integriert. Denn es zeigte sich in Modellierungen, dass die langsame Replikation, die der Reporter aufweist, gegenüber der schnellen des Repressilators ein Problem bei Zellteilungen darstellt. Wenn die Plasmide sich unterschiedlich schnell und unabhängig von ihrer Wirtszelle vermehren, liegen im Moment der Zellteilung unterschiedlich viele Plasmide von Repressilator und Reporter vor. Dadurch kann ein unterschiedliches Verhältnis in den zwei entstehenden Tochterzellen die Folge sein. Geschieht das, wirkt sich das unmittelbar auf die synthetisierte Menge an Proteinen aus. Dann kann es sein, dass die Anzahl an Repressorproteinen variiert und in der einen Tochterzelle mehr GFP gebildet wird als in der anderen. Das macht sich natürlich in abweichenden Amplituden bemerkbar, letztendlich also in der Intensität des Leuchtens. Wie eingangs bei der zirkadianen Uhr geschildert, liegt in regelmäßigen Amplituden aber eine nicht unerhebliche Bedeutung.

Eine weitere der Anpassungen bezog sich auf die Markierungen zum proteolytischen Abbau (sogenannte Tags), mit denen die Proteine entworfen worden waren. Durch eine Konkurrenz um dieselben Proteasen kam es zum ungleichmäßigen Abbau der Repressorproteine und damit zu Unregelmäßigkeiten in der Oszillation. Diese Fehlerweiterleitung durch das Proteolysesystem konnte durch eine Entfernung der Degradation-Tags gestoppt werden. Gleichzeitig führte das zu einer Vervierfachung der Periodenlänge. Das liegt nahe, denn wenn die Repressoren nicht so schnell abgebaut werden und länger wirksam sind, verhindern sie dementsprechend auch länger die Neusynthese des nächsten Repressorproteins und so weiter. Das Ergebnis von 10 Generationen an Bakterienzellen entsprach dem Ziel von Langzeit-Oszillationen eher als die ursprüngliche Periodenlänge von 2,4 Generationen.

Das veränderte Repressilatorsystem bleibt zudem auch verschiedenen äußeren Einflüssen gegenüber sehr stabil, was orthogonale System auszeichnet. Dabei wurde der Einsatz in verschiedenen Zellen und mit unterschiedlichen Nährmedien getestet, sowie Temperaturen von 37 °C, 30°C oder auch 25 °C.

Beim Repressilator handelt es sich also um ein ungemein spannendes genetisches Konstrukt, das unter anderem dabei hilft, die innere Uhr in uns und anderen Lebewesen besser zu verstehen, mithilfe derer langanhaltende ungekoppelte Oszillationen erzeugt werden können. Vielleicht können hiermit in Zukunft auch Erkrankungen wie die „Zirkadiane Schlaf-Wach-Rhythmusstörung“ besser verstanden und behandelt werden. Taktgeber ist beim Repressilator zwar nicht das Sonnenlicht, sondern die Substanz IPTG, allerdings ist das Grundprinzip dieser synchronen Langzeit-Oszillationen dasselbe wie bei der oben beschriebenen zirkadianen Uhr.

Bildquellen

    • Potvin-Trottier, L., Lord, N., Vinnicombe, G. et al. Synchronous long-term oscillations in a synthetic gene circuit. Nature 538, 514–517 (2016). doi: https://doi.org/10.1038/nature19841

Literaturquellen

Wellen der Synthetischen Biologie

von Lisa Prudnikow

Richard Feynman, einer der großen Physiker des 20. Jahrhunderts, prägte den Satz: „What I cannot create, I do not understand“. Übertragen auf lebendige Systeme, heißt das in etwa so viel wie, dass das Leben erst komplett verstanden werden muss, bevor neues erzeugt werden kann [Voit, 2013]. Verständnis für das Lebendige ist in der Tat seit frühen Zeiten eine Motivation der Menschheit. Aristoteles, Universalgelehrte der Antike, verstand alles Lebende als eine Hierarchie von Funktionen wie Bewegung und Stoffwechsel. Diese seien durch den Geist miteinander verbunden [Schrauwers, 2013]. Im 17. Jh. war Philosoph René Descartes einer eher mechanischeren Auffassung, demnach Lebewesen komplexe Maschinerien seien, Körper und Geist jedoch getrennt voneinander existieren [Schönbeck, 2020]. Einen ersten Ansatz, der der heutigen Disziplin der sogenannten Systembiologie entspricht, beschrieb Philosoph Immanuel Kant zu Zeiten der Aufklärung. Er verstand Organismen als selbstorganisierte Wesen, dessen Bestandteile in wechselseitiger Abhängigkeit gemeinsam eine ganzheitliche Ursächlichkeit beschreiben. Dabei postulierte Kant, dass es in der Natur nichts Zweckfreies gäbe [Schrauwers, 2013].

„What is life?“ fragte sich auch Erwin Schrödinger. Die Antwort versuchte der Physiker 1944 in seinen Schrödinger lectures am Trinity College in Dublin zu finden [Venter, 2014]. Für Schrödinger ist das Leben ein System, das der Tendenz vom Zustand der Ordnung auf maximale Unordnung zuzusteuern (2. Hauptsatz der Thermodynamik), entgehen kann. Im Gegenteil, Organsimen haben für ihn die Gabe einen „Strom von Unordnung auf sich zu ziehen und damit dem Zerfall in atomares Chaos auszuweichen“. Dies begründete er mit dem Aufbau der Chromosomen, die „eine Art Code enthalten müssen, der über das gesamte Muster der zukünftigen Entwicklung eines Individuums bestimmt“ [Schrödinger, 1944]. Im selben Jahr widerlegten Oswald Avery und sein Forschungsteam, die bis dahin geltende Theorie, Proteine seien die Träger der Erbinformation. Stattdessen konnten sie beweisen, dass es sich bei dem „blueprint of life“ um die Desoxyribonukleinsäure, kurz DNA, handelt [Avery, 1944]. Nachdem die polymere Helix-Struktur der DNA ab den frühen 50er Jahren aufgeklärt war, stand ebendieser Code im Mittelpunkt der Suche nach den Prinzipien des Lebens. Dieser Code, alles was einen Organismus ausmacht, steht in der DNA geschrieben [Schrauwers, 2013].

1961 gelang es Marshal Nirenberg und Heinrich Matthaei den genetischen Code zu identifizieren und aufzustellen [Nirenberg, 1961]. Daraufhin formulierte Francis Crick 1970 das zentrale Dogma der Molekularbiologie, welches den Weg der Information durch ein biologisches System beschreibt [Venter, 2014]. Mit Methoden zur DNA-Sequenzierung die seit 1975 mit der Sangersequenzierung Einzug in die Labors fanden, konnten auch zunehmend Abschnitte des Erbguts decodiert und charakterisiert werden [van Dijk, 2018]. Mit dem Humangenomprojekt sollte schließlich die genetische Zusammensetzung des Menschen erreicht werden. Die Entschlüsselung des menschlichen Genoms gelang im Jahr 2001. Nun schien das Leben vorerst verstanden [URL 1].

Über diese Art des Verständnisses hinaus und zurück zur Aussage Feynmans, gelangte das Team um den Biochemiker Craig Venter im Jahr 2010. Venter war zuvor bereits maßgeblich am Humangenomprojekt beteiligt [Schrauwers, 2014]. Mit ihrem Vorhaben „das Genom einer lebenden Zelle synthetisch herzustellen und damit zu verstehen, welche Gene für das Leben notwendig sind […]“, knackten Sie die wohl letzte Barriere der Wissenschaft des Lebens [Venter, 2014]. Der chemischen Synthese des Chromosoms vom Bakterium Mycoplasma mycoides, schlossen sie dessen Transfer in das Bakterium Mycolpasma capricolum an. Insgesamt betrachtet, wurde dieser innovative Erfolge mit Standartlabormethoden erreicht, ausgenommen der Genomsynthese. Kurze DNA-Fragmente wurden von verschiedenen DNA-Synthesefirmen hergestellt, in Hefezellen erfolgte die Fusionierung der Fragmente zum fertigen Genom. Das „neue“ Genom konnte mittels Protoplastenfusion in das Bakterium Mycoplasma capricolum eingebracht werden [Wünschiers, 2019]. Venter gelang es dabei bereits im Jahr 2007 ein sogenanntes Minimalgenom herzustellen, in dem er das Erbgut des Bakterium Mycoplasma genitalium um ein Fünftel reduzierte und somit die für dessen Überleben notwendigen Gene identifizieren konnte [Venter, 2014].

Die synthetische Biologie erweitert die Methoden der klassischen Gentechnik zur Ingenieurskunst [Wünschiers, 2019]. Das heißt, dass genauso wie beim Bau eines Hauses, ein Bauplan vorliegen muss. Der Ingenieur muss neben der Konstruktion an sich viele andere Punkte mit einberechnen: Bodenbeschaffenheit, Gewicht, Luftfeuchtigkeit usw. Schwieriger wird es bei der Erweiterung eines Gebäudes [Feldhusen, 2013]. Bei einem Computer müssen Mainboard und CPU-Sockel sowie Spannungswandler usw. harmonieren, um ein funktionierendes System abzubilden [Nann, 2016]. In der synthetischen Biologie übertragen sich diese Handlungskonzepte auf die biologische Zelle. Mit standardisierten DNA-Abschnitten, den Bauteilen, können gezielt biologische Konstrukte hergestellt werden [Purnick, 2009]. Wie kann man sich das vorstellen?

===Der synthetische Gedanke===
In einem Organismus liegt DNA nicht einfach „nur“ vor und kodiert für Eigenschaften. Unser Erbgut ist im Gegenteil „in Bewegung“. Die Expression eines Gens in ein Protein kann gefördert oder auch unterbunden werden. Man spricht von der Genregulation. Dafür sind jedoch weitere DNA-Abschnitte oder auch Proteine, sogenannte genregulatorische Elemente, zuständig. Diese werden als Promotor, Operator, Aktivator, Repressor usw. bezeichnet (Abbildung 1) [Schmidt, 2017]. Jaques Monod und Francois Jacob beschrieben 1961 erstmals eine solche regulative Schaltung mit dem sogenannten Lac-Operon im Bakterium E. coli als Antwort auf Umwelteinflüsse [Monod, 1961].

[{{ :einfuehrung2:waves-1.png?300 |Abb. 1: Damit das Enzym RNA-Polymerase einen DNA-Abschnitt in mRNA übersetzen kann, muss sie vom Promotor aus zum Gen gelangen. Wird der Operator jedoch durch einen aktiven Repressor besetzt, funktioniert das nicht und die Übersetzung (Transkription) stoppt. Ist der Repressor durch Bindung eines Liganden inaktiv, kann er nicht an dem Operator binden und der Weg für die RNA-Polymerase ist frei (created with biorender.com).}}]

Mit diesem Wissen entwickelte sich die Idee der Möglichkeit ein molekularbiologisches synthetisches Netzwerk zusammenzustellen [Cameron, 2014]. Stanley Cohen und Herbert Boyer setzten im Sommer 1973 einen einschneidenden Meilenstein in der Geschichte der DNA-Technologien. Die Wissenschaftler trafen sich ein Jahr zuvor auf einer Konferenz und erkannten, dass DNA-Abschnitte in Plasmide eingeführt und dieses Konstrukt in ein Bakterium eingeschleust werden könnte. Plasmid und DNA-Abschnitt müssten dafür mit demselben Restriktionsenzym behandelt werden, um sich an den Schnittstellen verbinden zu können [Wünschiers, 2019]. Mit dieser Errungenschaft gentechnologischer Anwendung wurde die Idee neue regulatorische Systeme aus molekularen Komponenten zusammenzusetzten, greifbarer. Zu dieser Zeit fehlten jedoch noch maßgebliche Kenntnisse über die Genregulation in Bakterien und den Umgang mit DNA im Labor, geschweige denn ihrer Manipulation. Der Traum eines genetischen Schaltkreises musste also noch warten [Cameron, 2014]. Noch im selben Jahr stellte der Genetiker Wacław Szybalski bereits fest: „Bisher arbeiten wir an der deskriptiven Phase der Molekularbiologie. Aber die wirkliche Herausforderung wird beginnen, wenn wir in die synthetische Phase eintreten. Dann werden wir neue Kontrollelemente entwickeln und diese neuen Module zu den bestehenden Genomen hinzufügen oder ganz neue Genome aufbauen. Dies wäre ein Bereich mit einem unbegrenzten Expansionspotential und kaum Einschränkungen für den Aufbau ‘neuer, besserer Regelkreise‘ oder schließlich anderer ‘synthetischer‘ Organismen.” [Szybalski, 1974]. Diese deskriptive Phase, von der Szybalski spricht, steigerte sich in den 90er Jahren rasant. Der technologische Fortschritt der Automatisierung und Hochdurchsatztechnologien im Labor erlaubte nun schneller und effizienter denn je DNA, RNA, Lipide, Proteine und Metabolite zu analysieren. Auch die Innovationen von Computerprogrammen ermöglichte komplette mikrobielle Genome zu sequenzieren. Diese Fortschritte erzeugten das Wissen, dass zelluläre Netzwerke in einer hierarchischen Struktur aufgebaut sind, die in einzelnen Modulen betrachtet werden können [Cameron, 2014].

===Die erste Welle===
Die unterste Ebene von Computerarchitekturen bilden Transistoren und Widerstände. In der Biologie entsprechen dieser Ebene Promotoren oder auch Operatoren, also Abschnitte auf der DNA die eine Funktion erfüllen (siehe Abbildung 1). Sowohl Computer als auch biologische Systeme sind also in einer Hierarchie aus verschiedenen Ebenen aufgebaut. Von Ebene zu Ebene wandernd, wächst das System in seiner Komplexität. Dieses Wissen kann genutzt werden, um die Funktionalität eines natürlichen Systems zu verstehen und künstliche Netzwerke zu erzeugen. Promotoren, Repressoren oder andere regulatorische Elemente werden in diesem Kontext als Parts bezeichnet. Über sogenannte Devices werden Parts miteinander verbunden, sodass kleinere Module konstruiert werden. Das wären zum Beispiel biochemische Reaktionen [Amos, 206]. Konstrukte aus verschiedenen Genabschnitten können dann die gewünschte Funktion ausführen. Für die synthetische Biologie ist das Wissen über genau solche Abschnitte und deren Interaktion von großen Belangen. Die Phase der sogenannten erste Welle der synthetischen Biologie fokussierte sich neben der Charakterisierung von Parts auf das Kreieren und Perfektionieren von Modulen [Purnick, 2009].

Die zunehmenden innovativen Methoden der Sequenzierung ermöglichten die Charakterisierung und Katalogisierung genetischer Elemente. Auch das als Arbeitspferd der Molekularbiologie bekannte Bakterium Escherichia coli wurde für die Evaluation der Konstrukte in einem lebendigen System häufig eingesetzt [Cameron, 2014]. Dieser Grundstein hat nicht nur unser quantitatives Verständnis natürlicher biologischer Prozesse erweitert. Wie mit einem Bauplan war es nun möglich, genetische Designs zu entwickeln, die für kleinere Module funktionieren, so wie es Szybalski voraussagte. Transkriptionsrepressoren oder ribosomale Bindungsstellen wurden miteinander verbunden, um ein spezifisches Verhalten hervorzurufen [Purnick, 2009]. An diesem Punkt wird der Unterschied zur Gentechnik nochmal erkennbar: Genetische Schaltkreise werden also gezielt (mit einem Computermodell) mit standardisierten Bauteilen konstruiert [Wünschiers, 2019]. Die Gentechnik konzentriert sich auf durch molekulargenetische Methoden hervorgebrachte genetische Veränderungen wie z.B. Insertionen, Deletionen oder den Transfer von DNA-Abschnitten [Luger, 2017].

Von 2000 bis 2003 lassen sich diese „foundational years“ einordnen [Amos, 2016]. Als Herausforderung dieser Phase stellte sich die Ausrichtung und Anpassung der Elemente dar. In einem konstruierten genetischen Schaltkreis können die eingesetzten Bauteile nämlich von unterschiedlichen Quellen stammen. Aufgabe ist es, diese so zu manipulieren, dass sie synergetisch das angestrebte Ziel erreichen. Mit den sich immer weiter entwickelnden Technologien im Labor konnten die Parts fortlaufend charakterisiert, standardisiert und aneinander angepasst werden [Purnick, 2009].

[{{ :einfuehrung2:waves-2.png?300 |Abb. 2: Das Toggle-Switch-Design: Repressor 2 blockiert Promotor 2, der vor Repressor 1 liegt. Repressor 1 blockiert Promotor 1, der die Transkription von Repressor 2 in Gang setzt. Inducer können die Inhibierung der Promotoren aufheben (created with biorender.com; nach Collins, 2000).}}]

In erster Linie war Ziel dieser Phase analog zu elektrischen Schaltungen, Funktionen durch biologische Module zu erzeugen. Diese ersten konstruierten Schaltkreise konnten mit einfachen mathematischen Modellen beschrieben werden [Cameron, 2014]. Das Forschungsteam um James Collins zum Beispiel konstruierte zu dieser Zeit einen sogenannten genetischen Kippschalter (genetic toggle switch), der mit Promotoren die Expression von sich gegenseitig hemmenden Transkriptionsrepressoren steuern kann. Der Schalter basiert auf dem Prinzip der kooperativen Repression von konstitutiv transkribierten Promotoren und der Degradation der Repressoren. Er besteht aus zwei Promotoren und Repressoren. Die Promotoren werden jeweils durch den Repressor inhibiert, dessen Expression vom stromaufwärts bzw. abwärts liegenden Promotor abhängt (siehe Abbildung 2). Dass ein Repressor einen Promotor blockiert, kann durch einen sogenannten Inducer, ein regulierendes Molekül unterbunden werden [Collins, 2000]. Parts können also so aneinandergereiht werden, dass ein gewünschtes Gen exprimiert wird. Die Konstrukte können sehr komplex sein und ähnlich wie in einem Stromkreis kontrolliert geschalten werden, um zum gewünschten Produkt zu gelangen. Allerdings können auch völlig neue Promotoren designt oder bekannte Promotoren modifiziert bzw. mit künstlichen Elementen erweitert werden. Ein fluoreszierendes Protein, wie das GFP zum Beispiel wird häufig „eingebaut“, um das Schaltkreisverhalten zu über die Zeit zu überwachen. Mit den gesammelten Grundlagen ist eine heute noch ständig wachsende Bibliothek an genetischen Elementen und Modulen entstanden. Der geschickte Einsatz solcher Parts erlaubt Kontrolle über das Zellverhalten in verschiedenen biochemischen Prozessen wie die Transkription, die Translation oder auch Post-translationale Prozesse [Purnick, 2009].

===Die zweite Welle===
Die Toolbox der bekannten genetischen Bauelemente lässt es nun zu, Parts und Module zu komplexeren Systemen zu kombinieren. Neben dem Wissen über die Funktionsweise genetischer Elemente, müssen ebenfalls Umgebungsbedingungen mit in die Konstruktion einbezogen werden. Parts und Module werden also so miteinander kombiniert, dass die entstandenen Konstrukte in eine einzelne Zelle integriert oder über eine Anzahl verschiedener Zellen verteilt werden. Dabei müssen die Bauelemente so interagieren, dass ein möglichst kohärentes Verhalten erzeugt wird [Amos, 2016]. Für diese sehr komplexe Aufgabe sind neue Designprinzipien nötig, in die das sich ständig erweiternde Grundlagenwissen über biologische Systeme und deren Umgebung einfließt. Das heißt, dass das synthetische System möglichst adaptiv geplant sein sollte [Purnick, 2009].

Mitte der 2000er Jahre begann das Feld der synthetischen Biologie zu florieren. Neben den vielen Publikationen, die zu biologischen Schaltkreisen und charakterisierten Parts veröffentlicht wurden (und Venters Ankündigungen an einem synthetischen Genom zu arbeiten), fand auch die erste internationale Konferenz zur synthetischen Biologie statt. Bei der Synthetic Biology 1.0 im Jahr 2004 am Massachusetts Institute of Technology (MIT) traf sich eine sehr interdisziplinäre Community von Biologen, Chemikern, Physikern, Ingenieuren und auch Computerwissenschaftlern. Thematisiert wurden die Kompatibilität der Ingenieurswissenschaften und der Biologie sowie die Standardisierung biologischer Bauelemente und deren Abstraktion in Hierarchien. Das Design, die Konstruktion und die Charakterisierung biologischer Systeme wurde vor allem auch im Kontext des Langzeitziels Komplett-Genomsequenzierung diskutiert [Cameron, 2014].

Dass ein System lebendig ist, setzt voraus, dass alle Wechselwirkungen reguliert werden, damit sich das System selbst erhalten kann. In einer Zelle zum Beispiel beeinflusst ein Reaktionsprodukt die Synthese eines Enzyms, welches eine nachfolgende Reaktion katalysieren soll [Schrauwers, 2013]. Bauelemente wie im Ingenieurswesen zu standardisieren, ist in der Biologie komplizierter. Wie schon erwähnt, benötigt es auch Wissen zu Umgebungsbedingungen. Informationen über Mutationen, Zelltod, intra-, inter- und extrazelluläre Zustandsbedingungen oder parallele Prozesse müssen unbedingt in das Design eines synthetischen Konstruktes mit einbezogen werden. Die Komponenten des Konstruktes müssen in einem entworfenen System auch richtig zugeordnet und ausgerichtet werden, was bei der ständig wachsenden Bibliothek an Parts eine immer komplexere Aufgabe darstellt [Purnick, 2009].

Systeme, die also in der zweiten Well entworfen wurden, können auf mehrere Pfade oder Ziele wie zum Beispiel Zellpopulationen oder Gewebe abzielen und damit Potential für innovative Umwelt- und therapeutische Anwendungen schaffen [Purnick, 2009]. Anwendungsgebiete liegen auch in der Nanotechnologie oder im Tissue Engineering, was zeigt, dass die Kontrolle über Zell-Zell-Interaktionen zu spezifischen Strukturen oder Mustern ebenfalls in den Fokus rückt [Amos, 2016]. Ein Beispiel für ein solches synthetisches Ökosystem ist die bakterielle Populationskontrolle. Prokaryoten und auch Eukaryoten können ihre Umgebung wahrnehmen und untereinander kommunizieren. In sogenannten Quorum sensing systemen können die Zellen durch chemische Kommunikation die Zelldichte messen und sie dementsprechend regulieren [Purnick, 2009]. Bei einem Forschungsprojekt vom Team um Lingchong You wurde ein solches System in E. coli integriert, gekoppelt an die Expression eines toxischen Proteins. Dabei wurde ein synthetisches Konstrukt aus regulierenden Abschnitten und Promotoren, in das Bakterium eingefügt. In Gegenwart des künstlichen Induktors IPTG wird dieses Konstrukt in Gang gesetzt, so dass die extrazelluläre Signalsubstanz N-Acylhomoserinlacton (AHL) synthetisiert und aktiviert wird. Das führt dazu, dass die Epression des Killerproteins CcdB induziert wird. Je höher die Zelldichten sind, desto mehr CcdB wird in den Zellen exprimiert. Eine hohe CcdB-Expression führt zum Zelltod. Innerhalb einer Zellpopulation können Variationen der Signalstärke oder auch Genexpressionsrauschen dazu führen, dass unterschiedliche Level an CcdB exprimiert werden [You, 2004]. Anhand dieses Rauschens kann eine stabile Population über einen langen Zeitraum aufrechterhalten werden. Diese Engineered Population Control ist nützlich für industrielle Fermentation, Bioremediation oder auch die Immunantwort. Auch mit solch einem Projekt über komplexe systembiologische Zusammenhänge lernen wir über natürlich vorkommende Systeme. Eine Kooperation zwischen verschiedenen koexistenten Zelltypen erlaubt es multizellulären Organismen zu funktionieren und zu überleben [Purnick, 2009].

Synthetische Ökosysteme können auch auf der manipulierten Kommunikation zwischen Reichen (zwischen Bakterien, Hefen, Säugetieren) basieren, wie zum Beispiel beim induzierten Parasitismus durch Dritte. Die Hefe Saccharomyces cerevisiae produziert Aldehyd, was in kultivierten HEK-Zellen den synthetischen Promotor PAIR aktiviert. Dieser bringt die Expression vom Protein sBLA in Gang, wodurch im Medium kein Ampicillin mehr produziert wird. Das erlaubt die Vermehrung von E. coli und den Abbau von Nährstoffen, wodurch die Säugetierzelle HEK stirbt (Abbildung 3). Die Dichte der beiden Zelltypen kann also durch die Anwesenheit der Bäckerhefe beeinflusst werden [Weber, 2007].

[{{ :einfuehrung2:waves-3.png?300 |Abb. 3: Ein genetischer Schaltkreis wird durch von //S. cerevisiae// abgegebenen Aldehyd ausgelöst und beeinflusst somit das Zellgleichgewicht (created with biorender.com; nach Purnick, 2009).}}]

Mit synthetischen Konstrukten der zweiten Welle können auch anwendungsorientierte Systeme erstellt werden. Programmierbare Zellen wie zum Beispiel Bakterien, die durch ein synthetisches System angetrieben Tumorzellen zerstören, bilden ein lebendes rechnerisch-therapeutisches Tool ab. Auch in diesem Fall müssen wieder Informationen zu den involvierten Zellen, Molekülen und Umgebungsbedingungen mit in das Design eingebracht werden. Außerdem müssen die Zellen auf Signale reagieren können, sodass sich die Bakterien in den Tumoren ansiedeln und die Zelldichte wahrnehmen. Systeme dieser Art bestehen aus Sensoren, Aktoren und Reaktionen, die modular aufgebaut sind und teilweise austauschbar sind, um auf möglichst viele Krebsarten anwendbar zu sein. Die Adaptivität eines synthetischen Konstrukts zu medizinischen Zwecken ist eine große Motivation [Purnick, 2009].

Zeitlich entspricht die zweite Welle den Jahren zwischen 2003 bis 2009 mit verschwimmenden Grenzen [Amos, 2016]. Auch, wenn sich der Fokus dieser Phasen ändert, besteht weiterhin Bedarf neue Parts sowie auch Module zu erforschen und zu designen. Es gibt dafür ein öffentliches Repository, das Registry of Standart Biological Parts, wo wie in einem digitalen Katalog die genetischen Parts aufgeführt und auch physisch im Biobrick-Standard hinterlegt sind [Purnick, 2009]. Der Biobrick-Standard ist eine Art Format, welches erleichtert, Parts schrittweise in genetische Schaltkreise zu integrieren. Wissenschaftler können sich diese Parts in Plasmiden bestellen, bzw. die von ihnen neu charakterisierten hinterlegen lassen. Im jährlichen International Genetically Engineered Machine (iGEM) Wettbewerb werden von studentischen Gruppen ebenfalls synthetische Konstrukte erstellt, dessen Endresultate in diesem Repository hinterlegt werden. Um am Computer ein synthetisches Design zu erstellen, kann mit der Synthetic Biology Open Language (SBOL) als Standartformat die Information aus dem Repository über die Parts für weitere Computertools übersetzt werden [Camero, 2014]. Als genetisches Vokabular wird diese Darstellungsweise auch zur Visualisierung verwendet [URL 2].

===Die dritte Welle===
Nun wurde der Bezug zum hierarchischen Aufbau eines Computers mehrfach dargestellt. Transistoren, Steckplätze, Lötverbindungen, Platinen oder Spulen bilden die kleinste Ebene eines Computers ab. Aus ihnen werden Mainboards, Festplatten und Prozessoren zusammengesetzt. Diese einzelnen „Organe“ des Computers übernehmen Aufgaben und interagieren miteinander. So entsteht ein Netzwerk, das den Computer an sich ausmacht [Nann, 2016]. Komplette Netzwerke in der Natur zu verstehen und abzubilden ist Aufgabe der Systembiologie [Voit, 2013]. In der dritten Welle der synthetischen Biologie werden komplette biologische Netzwerke jedoch konzipiert. Diese Phase dauert nun seit ungefähr 10 Jahren an. Der Unterschied zwischen Systemen und Netzwerken wird dabei an der Kapazität zur Informationsübertragung gemessen. In Systemen ist die Kapazität im Allgemeinen relativ gering, während die Bandbreite in Netzwerken höher ist. Systeme liegen in einem Computer verteilt, parallel und asynchron vor. Fällt lokal eine Komponente aus, führt dies meist nicht zu einem kompletten globalen Ausfall [Amos, 2016]. In biologischen Netzwerken muss im Gegensatz zur Standardelektronik jeder Draht ein anderes Molekül sein, damit verschiedene Elemente oder auch Zellen effizient Informationen austauschen können und als „Bauteil“ verbunden sind. Während in der Elektronik Drähte räumlich voneinander getrennt und isoliert sind, funktioniert dies im Inneren einer Zelle eher weniger. Das hat zur Folge, dass die chemische Vielfalt der Konstrukte rasch zu nimmt [Macía, 2012].

Anstatt biologische Elemente zu konzipieren, so dass sie in kleineren Modulen oder ganzen Systemen funktionieren, müssen in der dritten Welle die Systeme so konzipiert sein und interagieren, dass sie ein Netzwerk bilden. Das erstellte Konstrukt muss in natürlichen Umgebungsbedingungen genauso funktionieren wie unter Laborbedingungen [Purnick, 2009]. So gesehen stellt die Umgebung der Zelle eine natürliche Obergrenze für die Komplexität von Modulen dar, innerhalb müssen die „Kabel“ mit Proteinen „isoliert“ werden. Die entstehenden Konstrukte sind somit nicht mehr adaptiv, sondern äußerst spezifisch für den jeweiligen Kontext. Der Fokus entfernt sich also von einzelnen Zellen, hin zu mikrobiellen Konsortien. Damit können aber auch komplexere Aufgaben gelöst werden, die für individuelle Stämme unmöglich wären. Netzwerke sind robuster gegenüber Umweltbeeinträchtigungen und haben die Fähigkeit durch Kommunikation eine Art von Arbeitsteilung, also verteiltes Rechnen zu erleichtern. Mit synthetischen Netzwerken können verschiedene Zelltypen nicht nur miteinander interagieren, sondern auch auf bestimmte parallele Zustandsformen reagieren [Amos, 2016].

[{{ :einfuehrung2:waves-4.png?300 |Abb. 4: Entwicklung der Forschung der synthetischen Biologie (nach Amos, 2016).}}]

Das Leben ist als Bottom-up-Prozess zu verstehen. Mit den einzelnen Ebenen des Lebens, Moleküle und Proteine, die Zelle, Gewebe und Organe bis hin zum Organismus und seiner Interaktion mit der Umwelt, steigt dessen Komplexität. Mit der langen Suche und schließlich dem Erfolg der Aufklärung des Aufbaus unserer Erbinformation, ist es der Menschheit gelungen das Leben mehr und mehr zu verstehen. Die Sequenzierung ermöglichte weitere Erfolge in der Grundlagenforschung um schließlich eigenes Leben zu kreieren und zu manipulieren, was weiteres Wissen schuf [Schrauwers, 2013]. In dieser Bottom-up-Perspektive entwickelte sich ebenso die synthetische Biologie (Abbildung 3). Auch wenn die Phasen sich chronologisch darstellen lassen, befinden wir uns auch nach wie vor in der deskriptiven Phase der ersten und zweiten Welle [Amos, 2016]. Denn auch für große Maschinen, sind immer neue Erkenntnisse über die Verbesserung der Zahnräder von Belangen. 

===Quellen===
* Amos, M. (2016) Population-based microbial computing: A third wave of synthetic biology? International Journal of General Systems. 43(7):770-782. DOI: 10.1080/03081079.2014.921001
* Avery, O. T.; MacLeod, C. & McCarty, M. (1944) Studies on the chemical nature of the substance inducing transformation of pneumococcal types. Journal of Experimental Medicine. 79(2):137-158. DOI: 10.1084/jem.792.137
* Cameron, D.; Bashor, C. & Collins, J. (2014) A brief history of synthetic biology. Nature reviews microbiology. 12(5): 381-90. DOI: 10.1038/nrmicro3239
* Collins, J.; Gardene, T. & Cantor, C. (2000) Construction of a genetic toggle switch in Escherichia coli. Nature. 403(6767):339-342. DOI: 10.1038/35002131
* Feldhusen, J. & Grot, K. (2013) Pahl/Beitz Konstruktionslehre - Methoden und Anwendung erfolgreicher Produktentwicklung. Springer-Verlag Berlin Heidelberg. 8. Auflage. ISBN: 978-3-642-29568-3
* Luger, O.; Tröstl, A. & Urferer, K. (2017) Gentechnik geht uns alle an! Ein Überblick über Praxis und Theorie. Springer Fachmedien Wiesbaden. 2 Auflage. ISBN: 978-3-658-15604-6
* Macía, J.; Posas, F. & Solé, R. V. (2012) Distributed computation: The new wave of synthetic biology devices. Trends in Biotechnology. 30(6):342-9. DOI: 10.1016/j.tibtech.2012.03.006
* Monod, J. & Jacob, F. (1961) Telenomic mechanisms in cellular metabolism, growth, and differentiation. Cold Spring Harb. Symp. Quant. Biol. 26:389-401. DOI: 10.1101/sqb.1961.026.01.048
* Nann, J. (2016) Computer verstehen und selber bauen. Rekenaar Company. ISBN: 978-3-739-24932-2
* Nirenberg, M. & Matthaei (1961) The dependence of cell-free protein synthesis in E. coli upon natural occurring or synthetic polyribnucleotides. PNAS. 47(10):1588-1602. DOI: 10.1073/pnas.47.10.1588
* Purnick, P. & Weiss, R. (2009) The second wave of synthetic biology: from modules to systems. Nature Reviews Molecular Cellbiology. 10(6):410-422. DOI: 10.1038/nrm2698.
* Schönbeck, S. (2020) Die Fabeltiere der Aufklärung – Naturgeschichte und Poetik von Gottsched bis Lessing. Frankfurt/Oder. Europa-Universität Viadrina. Kulturwissenschaftliche Fakultät. Dissertation.
* Schmidt, O. (2017) Genetik und Molekularbiologie. Springer-Verlag Berlin Heidelberg. ISBN: 978-3-662-50273-0
* Schrauwers, A. & Poolman, B. (2013) Synthetische Biologie – Der Mensch als Schöpfer? Springer-Verlag Berlin Heidelberg. ISBN: 978-3-642-34592-0
* Schrödinger, E. (1944) Was ist Leben? Die lebende Zelle mit den Augen des Physikers betrachtet. Piper Verlag GmbH München. ISBN: 978-3-492-97443-1
* Szybalski, W. (1974) Contribution to 18. OHOLO Biological Conference panel discussion. In Kohn, A. & Shatkay, A. (Eds.) Control of Gene Expression, p. 405. New York: Plenum Press
* van Dijk, E. L.; Jaszyszyn, Y. & Naquin, D. et al. (2018): The third Revolution in Sequencing Technology. Trends in Genetics. 34(9):666-681. DOI: 10.1016/j.tig.2018.05.008
* Venter, C. (2014) Leben aus dem Labor – Die neue Welt der synthetischen Biologie. S. Fischer Verlag GmbH Frankfurt am Main. ISBN: 978-3-10-087202-9
* Voit, E. O. (2013) A First Course in Systems Biology. Garland Science, Taylor & Francis Group. ISBN: 978-0-8153-4467-4
* Weber, W.; Baba, M. & Fussenegger, M. (2007) Synthetic ecosystems based on arbone inter- and intrakingdom communication. PNAS. 104(25):10435-40. DOI: 10.1073/pnas.0701382104
* Wünschiers, R. (2019) Generation Gen-Schere – Wie begegnen wir der gentechnologischen Revolution? Springer-Verlag GmbH Deutschland. ISBN: 978-3-662-59047-8
* You, L.; Cox III, R. & Weiss, F. et al. (2004) Programmed population control by cell-cell communication and regulated killing. Nature. 428(6985):868-71. DOI: 10.1038/nature02491
* [URL 1] Nationales Genomforschungsgesetz. Verfasser unbekannt. URL: http://www.ngfn.de/de/verstehen_der_menschlichen_erbsubstanz.html (letzter Zugriff: 28.08.2020)
* [URL 2] Synthetic Biology Open Language. URL: https://sbolstandard.org (letzter Zugriff: 28.08.2020)