Den Nobelpreis für Chemie 2024 erhalten David Baker, Demis Hassabis und John Jumper für ihre Entwicklungen im Bereich Protein-Design und Proteinstrukturvorhersage. Deshalb werden wir hier näher betrachten, wieso die Struktur von Proteinen so wichtig ist und was es bedeutet, sie nach eigenem Willen gestalten oder vorhersagen zu können.
Die dreidimensionale Struktur von Proteinen
Über die große Bedeutung der dreidimensionalen Struktur von Proteinen habe ich hier auf diesem Blog schon mehrfach geschrieben. Und das nicht ohne Grund, denn die Struktur eines Proteins bestimmt dessen Funktion.
Auf der rudimentärsten Ebene sind Proteine nur aneinandergereihte Aminosäuren. Als lineare Kette ohne jegliche Struktur könnten sie aber keine ihrer vielfältigen Aufgaben erfüllen: Katalyse von biochemischen Reaktionen, Signalübertragung, Transport… Erst die richtige Faltung der Proteine bringt die richtigen Aminosäuren mit der passenden Reaktivität zu ihrem jeweiligen Platz. Nur mit der richtigen dreidimensionalen Struktur funktioniert ein Protein. Und diese zu kennen kann entscheidend sein, um die Biologie zu verstehen, die Entstehung von Krankheiten nachvollziehen zu können oder neue Arzneimittel zu entwickeln.
Komplett neue Proteine
George Baker hat mit seinen Kolleg:innen und Teammitgliedern eine Methode entwickelt, um neue Proteine von Grund auf designen zu können. Sie hatten also eine bestimmte Struktur als Ziel und berechneten am Computer die Aminosäuresequenz, die das entsprechende Protein haben müsste.
Ihr Ziel-Protein war ein Protein, das aus zwei verschiedenen Arten von Strukturelementen bestand. Diese alpha-Helices und beta-Faltblätter genannten Elemente sind relativ stabil in ihrer Faltung und nehmen eine gut definierte Konformation (so wird die räumliche Anordnung von Proteinen und anderen Molekülen genannt) ein. Für das Design eines neuen Proteins also ideale Bedingungen. Und tatsächlich gelang es ihnen! Das neue Protein hatte genau die Struktur, die sie beabsichtigt hatten.
Und bei dem einen de novo-designten Protein blieb es natürlich nicht. Baker und sein Team haben zeigen können, dass sie verschiedenste Strukturen von Grund auf neu designen können. Außerdem war es sogar möglich, neue Enzyme auf diese Weise zu entwickeln, also Proteine mit katalytischer Aktivität, die chemische Reaktionen ermöglichen. Diese Enzyme reichen allerdings noch lange nicht an die natürlichen, evolutionär entstandenen Enzyme heran.
Das Programm, dass all das ermöglichte, nennt sich Rosetta. Neben dem bekannteren AlphaFold – das wir uns gleich noch genauer anschauen werden – ist Rosetta eines der wichtigsten bioinformatischen Werkzeugen der Protein-Biochemie. Neben dem Design neuer Proteine kann es noch für andere Aufgaben eingesetzt werden, unter anderem auch die Vorhersage der Struktur von Proteinen.
Akkurate Strukturvorhersage
Und die Strukturvorhersage ist auch schon das Stichwort, um zu der anderen Hälfte dieses Chemie-Nobelpreises zu kommen. Damit wurden Demis Hassabis und John Jumper ausgezeichnet. Sie waren maßgeblich an der Entwicklung von AlphaFold beteiligt, einem KI-Werkzeug zur Vorhersage von Proteinstrukturen basierend allein auf ihrer Aminosäuresequenz. Während Hassabis schon die Entwicklung von AlphaFold 1 geleitet hat, kam Jumper erst für AlphaFold 2 hinzu. Allerdings wurde AlphaFold für die zweite Version noch einmal grundlegend verändert, was auch zu einer beeindruckenden Verbesserung seiner Vorhersagen geführt hat.
Die Struktur eines Proteins vorherzusagen ist aufgrund der extrem großen Anzahl möglicher Konformationen keine einfache Aufgabe. Es gab auch Ansätze, den kompletten Faltungsprozess eines Proteins zu simulieren, was aber aufgrund der benötigten Rechenleistung nur sehr begrenzt möglich ist.
AlphaFold hingegen basiert auf einem neuronalen Netz, das mit einer Unmenge von Sequenz- und Strukturdaten trainiert wurde. Es kann die Struktur eines Proteins a priori vorhersagen, nur aus der Abfolge der Aminosäuren in diesem Protein. Das tut es mit einer wirklich beeindruckenden Genauigkeit und ermöglicht uns daher, die Struktur von viel mehr Proteinen zu erkunden, als es mit experimentellen Methoden möglich wäre.
Natürlich ist auch AlphaFold nicht perfekt – über seine Limitationen habe ich in einem früheren Text schon geschrieben. Auch macht es die experimentelle Strukturbiologie auf keinen Fall überflüssig. Aber es ist ein sehr nützliches Werkzeug, und die Fähigkeit, schnell eine große Zahl von Proteinstrukturen vorhersagen zu können, ist zugegebenermaßen revolutionär.
Chemie-Nobelpreis für zwei wichtige Werkzeuge
Ich möchte diesen Text mit einer etwas persönlicheren Note beenden. Als Protein-Biochemiker ist es natürlich ein schönes Gefühl, wenn ein Nobelpreis in das Gebiet der Protein-Biochemie geht. Aber als jemand, der mit experimentellen Methoden an strukturellen Fragestellungen arbeitet, ist da auch ein etwas seltsames Gefühl dabei. Denn der große Erfolg von AlphaFold ist nur dank der extrem guten Trainigsdaten möglich, die in Jahrzehnten strukturbiologischer Arbeit experimentell gewonnen wurden (und nicht zu vergessen der Aufwand, diese Daten zu kuratieren). Diese Trainigsdaten haben AlphaFold erst ermöglicht, und ich persönlich würde das gerne mehr in der Berichterstattung erwähnt sehen.
Nichtsdestotrotz ist dieser Preis mehr als angemessen. Im Prinzip wurden mit Rosetta und AlphaFold zwei der wichtigsten bioinformatischen Werkzeuge für die Protein-Biochemie ausgezeichnet, und sie haben nicht nur in diesem Fachgebiet viele neue Erkenntnisse ermöglicht – und werden es auch in Zukunft höchstwahrscheinlich weiter tun.
—
Lest doch gerne noch meinen Beitrag zum Medizin-Nobelpreis 2024 oder schaut in die Advanced Information des Chemie-Nobelpreises, falls ihr euch tiefergehend darüber informieren wollt.
Und wenn euch dieser Text gefallen hat, dann empfehlt ihn gerne weiter, folgt PharmBlog auf Social Media oder abonniert meinen Newsletter, um keinen Blogbeitrag mehr zu verpassen.
Es ist wieder soweit, es ist Nobelpreis-Zeit. Den Anfang macht der Nobelpreis für Physiologie oder Medizin, mit dem 2024 Viktor Ambros und Gary Ruvkun ausgezeichnet werden. Sie erhalten den Preis für „die Entdeckung der microRNA und ihrer Rolle in der post-transkriptionalen Genregulation“.
In diesem Text werden wir gemeinsam herausfinden, was microRNA ist, welche Rolle sie bei der Genregulation spielt und was sie so besonders macht, dass ihre Entdeckung einen Nobelpreis wert ist.
Was ist miRNA?
Tatsächlich hab ich auf diesem Blog schon einmal über microRNA geschrieben, nämlich im Kontext von nicht-codierender RNA im Allgemeinen. Das ist RNA, die nicht wie die mRNA als Überträger für den Bauplan von Proteinen fungiert. Wenn euch das interessiert, dann lest gerne den verlinkten Blogpost. Hier wiederum wird es jetzt ausführlich um die microRNA und die Entdeckungen der beiden Preisträger und ihrer Teams gehen.
Die microRNA – auch als miRNA abgekürzt – ist wie die DNA beispielsweise auch eine Nukleinsäure. Sie besteht daher aus einer langen Kette von sogenannten Nukleotiden, die über ein Zucker-Phosphat-Rückgrat verbunden sind. Jedes Nukleotid verfügt über eine von vier Basen – A, G, C und U – und die Abfolge dieser Basen ist es, was die jeweilige miRNA ausmacht und ihre Funktion ermöglicht.
Apropos Funktion, was genau kann die miRNA eigentlich? Mithilfe von miRNA können Zellen steuern, welche Proteine sie herstellen. Das erreichen sie, indem die miRNA an ein Transkript bindet, ein mRNA-Strang, der die genetische Information aus dem Zellkern ins Zytoplasma transportiert, wo anhand dieses Bauplans ein Protein hergestellt wird. Die Basenabfolge der miRNA ist teilweise komplementär zu der des Transkripts, wodurch die miRNA das richtige Transkript erkennt. Die Bindung der miRNA führt dann dazu, dass das entsprechende Protein nicht hergestellt wird.
Die allererste miRNA
Als Viktor Ambros und Gary Ruvkun mit ihrer Arbeit zu diesem Thema begannen, war davon allerdings noch nichts bekannt. Was sie hatten waren Fadenwürmer – C. elegans, ein häufiger Modellorganismus in den Biowissenschaften – mit bestimmten Mutationen. Diese beiden Mutanten mit den Namen lin-4 und lin-14 wiesen entgegengesetzte Entwicklungsdefizite auf. Bei lin-14 handelte es sich um ein Protein, und bestimmte Mutationen führten zu einer erhöhten Aktivität und einer verlängerten Präsenz des lin-14-Proteins in der Zelle. Die Mutationen befanden sich jedoch nicht in dem Abschnitt des Gens, der für das eigentliche Proteine codiert. Stattdessen waren sie in der 3‘-untranslatierten Region zu finden, einem Abschnitt, der für die Stabilität des mRNA-Transkripts wichtig ist, bei der Herstellung des Proteins aber nicht abgelesen wird.
lin-4 hingegen war allerdings kein Protein, sondern einer kurzer RNA-Abschnitt, der nicht für ein Protein codiert. Seine Basenabfolge aber war teilweise komplementär zur Sequenz der 3‘-untranslatierten Region von lin-14. Mit lin-4 hatten Ambros, Ruvkun und ihre Kolleg:innen damit die erstemiRNA entdeckt, welche die Expression des Proteins lin-14 kontrollierte. Diese Art der Regulation der Expression durch miRNA, nachdem das Gen schon zum mRNA-Transkript transkribiert wurde, war bis dahin komplett unbekannt.
Weit verbreitet und konserviert
Dieses Paar aus miRNA und Protein, lin-4 und lin-14, ist zwar nur bei bestimmten Fadenwürmern vorhanden. Aber lin-4 blieb nicht die einzige bekannte miRNA. Gary Ruvkuns Team entdeckte mit let-7 eine miRNA, die in sehr vielen Tieren vorhanden ist und konnte damit beweisen, dass es sich bei miRNA um eine weit verbreitete und evolutionär konservierte Art der Genregulation handelt.
Inzwischen sind noch deutlich mehr Arten von kleinen, nicht-codierenden RNAs bekannt, die auf ähnliche Weise die Expression von Proteinen verhindern. Die small interfering RNA (siRNA) ist hier wohl das bekannteste Beispiel, die sowohl in der Forschung regelmäßig eingesetzt wird, um die Genexpression auszuschalten, als auch als Arzneistoff zur Gentherapie.
miRNAs sind genetisch, also auf der DNA, codiert. Sie können entweder unabhängig von anderen Genen transkribiert werden – haben also eigene Promotoren, DNA-Abschnitte, die Transkription ermöglicht – oder sie liegen als Introns innerhalb eines Protein-codierenden Gens und werden mit diesem zusammen transkribiert (Transkription bezeichnet das „Umschreiben“ von DNA in RNA).
Nach der Transkription liegt dann die miRNA in ihrer frühesten Form vor, als pri-miRNA. Die pri-miRNA wird dann durch unterschiedliche Enzyme prozessiert und aus dem Zellkern ins Zytoplasma transportiert, wo sie als reife, doppelsträngige miRNA endet. Einer dieser beiden komplementären miRNA-Stränge kann dann gemeinsam mit diversen Proteinen einen Komplex bilden, der miRISC genannt wird.
Die miRISC-Komplexe sind dann die „aktive Form“ der miRNA. Sie können an ein mRNA-Transkript binden, das eine Basensequenz komplementär zu dem miRNA-Strang aufweist (wobei miRNA typischerweise nicht vollständig komplementär ist). Die Bindung des miRISC-Komplexes an das Transkript geschieht oft in der oben schon erwähnten 3‘-untranslatierten Region, die keine Information über den Aufbau eines Proteins trägt.
Wenn der miRISC-Komplex an das Ziel-Transkript gebunden hat, beginnt dessen Abbau. Die 3‘-Polyadenylierung und die 5‘-cap werden abgespalten – beides sind Elemente des Transkripts, die ihm Stabilität verleihen. Ohne diese Elemente wird das mRNA-Transkript von der zelleigenen Maschinerie dann schnell abgebaut, ohne dass der darauf codierte Bauplan für ein Protein abgelesen werden kann.
Abgesehen von diesem kanonischen Mechanismus kann miRNA die Expression von Genen allerdings noch auf andere Arten beeinflussen.
Ein essentieller Regulationsmechanismus
Dank den Preisträgern, ihren Teams und Kooperationspartner:innen haben wir also diesen essentiellen Regulationsmechanismus entdeckt, mit dem unsere Zellen die Expression von Proteinen steuern. Inzwischen sind über 1900 miRNAs allein im Menschen bekannt, die sowohl für die Embryonalentwicklung als auch für die normale Funktion von Zellen, Geweben und Organen entscheidend sein können.
Und wenn ihr euch noch ausführlicher mit dem Thema miRNA beschäftigen wollt, kann ich euch wie immer die Advanced Information auf der Website des Nobelpreises empfehlen.
—
Wenn euch dieser Text gefallen hat, empfehlt ihn gerne weiter, folgt PharmBlog auf Social Media oder abonniert meinen Newsletter, um keinen Blogpost mehr zu verpassen.
Eine der grundlegendsten Eigenschaften des Lebens auf der Erde ist der genetische Code. Egal bei welchem Lebewesen, wie der Bauplan von Proteinen auf der DNA als Erbinformation gespeichert wird, unterscheidet sich prinzipiell nicht. Trotzdem können wir den genetischen Code verändern und erweitern, und so maßgeschneiderte Proteine herstellen, die es in der Natur so nie geben könnte. Die Erweiterung des genetischen Codes kann uns helfen, nicht nur die Biologie besser zu verstehen, sondern auch effektivere Arzneimittel und Impfstoffe zu entwickeln.
Der Bauplan für Proteine
Bevor wir uns aber mit der Erweiterung des genetischen Codes beschäftigen können, sollten wir allerdings zuerst klären, worum es sich bei dem genetischen Code überhaupt handelt.
Unsere Erbinformation ist auf der DNA codiert, als Abfolge von vier möglichen Bausteinen: den Basen Adenin (A), Guanin (G), Thymin (T) und Cytosin (C). Exakter wäre es zwar, von den entsprechenden Nukleotiden zu sprechen, aber wir bleiben hier bei den Basen. Die Abfolge der Basen stellt einen Bauplan für Proteine dar, die diesem Plan folgend hergestellt werden. Dementsprechend müssen immer bestimmte Kombinationen von Basen für die Bausteine der Proteine, die Aminosäuren, stehen.
Tatsächlich codieren immer drei aufeinanderfolgende Basen – ein sogenanntes Codon – für eine Aminosäure. So können dann die 64 möglichen Codons in die 20 proteinogenen Aminosäuren übersetzt werden; immer zwei oder vier verschiedene Codons stehen für eine Aminosäure. Außerdem gibt es ein Codon, das die Aminosäure Methionin und gleichzeitig den Anfang eines Proteins anzeigt, sowie drei Codons, die das Ende eines Proteins bedeuten. (Die Tatsache, dass mehrere Codons für jeweils eine Aminosäure codieren, bezeichnet man übrigens als degenerierten genetischen Code.)
Dieses Prinzip und die Codierung der Aminosäuren sind bis auf ganz wenige Ausnahmen bei einzelnen Aminosäuren bei allen Lebewesen identisch. Das ermöglicht uns unter anderem, menschliche Proteine und Peptide wie Insulin in Bakterien herstellen zu können, sodass wir für die Behandlung von Diabetes nicht mehr auf Schweine-Insulin angewiesen sind.
Aber wir können auch darüber hinaus gehen. Mithilfe von cleveren Tricks können wir Aminosäuren genetisch codieren, die in der Natur nicht in Proteine eingebaut werden könnten oder sogar solche, die in der Natur gar nicht vorkommen.
Unnatürliche Aminosäuren
Am häufigsten wird dazu eine Technik namens stop codon suppression verwendet. Sie hat Parallelen in der Natur, wo die Aminosäuren Pyrrolysin und Selenocystein kein eigenes Codon besitzen, sondern über die Reprogrammierung eines Stop-Codons in Proteine eingebaut werden.
Für die stop codon suppression wird in ein Gen an der Stelle ein Stopcodon eingebaut, an der im fertigen Protein die unnatürliche Aminosäure sein soll. Wird dieses Protein von einer Zelle dann hergestellt, hört es an der Stelle des eingeführten Stopcodons nicht auf sondern enthält die gewünschte Aminosäure. Allerdings muss die Zelle über zwei Dinge verfügen: einerseits die unnatürliche Aminosäure, die – wie der Name schon sagt – nicht natürlich vorkommt und deshalb von außen zugeführt werden muss. Andererseits ein sogenanntes orthogonales tRNA-/Aminoacyl-tRNA-Synthetase-Paar. Das ist zwar ein echt komplizierter Begriff, bezeichnet aber eigentlich nur die Grundausstattung, die eine Zelle braucht, um Aminosäuren zu einem Protein zusammenzufügen.
Die tRNA erkennt mit ihrem einen Ende das Codon und trägt an ihrem anderen Ende die dazu passende Aminosäure. Dazu wurde sie zuvor von der Aminoacyl-tRNA-synthetase damit beladen. Und da eine Zelle normalerweise nicht über das entsprechende Paar für die unnatürliche Aminosäure verfügt, muss auch das gentechnisch in die Zelle eingebracht werden.
So beeindruckend das ist – Zellen Proteine mit unnatürlichen Aminosäuren herstellen zu lassen – funktioniert das aber leider nicht perfekt. Einerseits kommt das gewählte Stopcodon auch in endogenen Proteinen vor, und zwar tatsächlich als Stopsignal. Daher wird meistens das seltenste der Stopcodons verwendet, TAG oder auch Amber genannt. Außerdem steht die orthogonale tRNA in Konkurrenz mit der zelleigenen Maschinerie, die Stopcodons erkennt und die Proteinexpression beendet. Diesen Konkurrenzkampf verliert die tRNA auch meistens, weshalb Proteine mit unnatürlicher Aminosäure deutlich schlechter exprimiert werden (über den Daumen gepeilt etwa 10 % des Wildtyps). Daher gibt es zum Beispiel Ansätze, Releasing-Faktoren in Zellen auszuschalten, die normalerweise die Stopsignale vermitteln. Das führt dann aber oft dazu, dass die Lebensfähigkeit der Zellen so sehr beeinträchtigt wird, dass die Ausbeute genauso stark leidet.
Außerdem funktioniert das oft nur mit überexprimierten Proteinen. Diese wurden gentechnisch in Zellen eingebracht und es werden deutlich mehr von ihnen hergestellt als von den zelleigenen Proteinen. Wie man sich vorstellen kann, birgt das allerdings das Risiko, die Biologie der Zelle ganz schön durcheinander zu bringen. Es gibt aber seit neustem beispielsweise Möglichkeiten, die Sequenz endogener Proteine auf der RNA-Ebene zu verändern und so sehr effizient unnatürliche Aminosäuren in sie einzubauen, ohne sie überexprimieren zu müssen.
Neue Chemie für Proteine
Mittels stop codon suppression können wir also unnatürliche Aminosäuren in Proteine einbauen. Aber was bringt das jetzt?
Auf der grundlegendsten Ebene geht es darum, Proteinen neue chemische Möglichkeiten zu geben. Denn die Chemie der Aminosäuren ist begrenzt – es gibt ein paar sehr unspektakuläre hydrophobe, einige hydrophile, manche sind sauer oder basisch, ein paar sind nukleophil, können oxidiert oder reduziert werden. Damit schaffen es Proteine zwar, eine unglaublich Fülle an Funktionen zu erfüllen, aber um es mal sehr plakativ zu sagen: Proteine können fast nur Chemie aus der Grundlagen-Vorlesung.
Daher nutzen wir die Erweiterung des genetischen Codes, um Proteinen neue chemische Möglichkeiten beizubringen. Damit eignen sie sich zum Beispiel deutlich besser für manche therapeutische Anwendungen. Bevor wir es darum geht, möchte ich euch aber einige andere Anwendungen des erweiterten genetischen Codes kurz vorstellen.
Erweiterung des genetischen Codes in der Forschung
Unnatürliche Aminosäuren sind wertvolle Werkzeuge in der biochemischen und molekularbiologischen Forschung.
In meinem letzten Blogpost habe ich viel darüber geschrieben, wie nützlich die Markierung von Proteinen mit Fluoreszenzproteinen ist. Unnatürliche Aminosäuren sind auch als Fluoreszenzmarker geeignet – statt aber einfach ein Protein damit zu markieren, kann der Fluoreszenzfarbstoff ganz gezielt an einzelnen Positionen des Zielproteins eingebracht werden. Das ist entweder direkt über fluoreszierende Aminosäuren möglich oder über den Einbau eines click handle. An einer solchen Aminosäure können dann direkt in der Zelle alle möglichen Moleküle befestigt werden.
Abgesehen von Fluoreszenz können Proteine über stop codon suppression auch mit anderen Markierungen versehen werden. Ein Beispiels sind sogenannte spin label für Techniken wie EPR, über die ich auch schon geschrieben habe. Außerdem können Crosslinker eingebaut werden, die ein Protein kovalent mit einem anderen Biomolekül verbinden, lichtgesteuerte Aminosäuren oder auch Nachahmungen posttranslationaler Modifikationen.
Und außerdem existiert noch die Möglichkeit des enzyme engineerings mit unnatürlichen Aminosäuren. Dabei wird die Erweiterung des genetischen Codes genutzt, um die chemischen Möglichkeiten von Enzymen zu erweitern und sie zu maßgeschneiderten Katalysatoren für bestimmte chemische Reaktionen zu machen.
Diese Anwendungen des erweiterten genetischen Codes sind eine Möglichkeit, neue oder bessere Arzneistoffe zu finden – nämlich indirekt, indem unnatürliche Aminosäuren als Werkzeuge in der Charakterisierung von Targets oder Entwicklung, Validierung und Synthese von Arzneistoffen eingesetzt werden. Aber auch der direkte Einsatz eines erweiterten genetischen Codes in Arzneimitteln ist möglich, und einige Beispiele möchte ich euch gerne vorstellen:
Antikörper und Protein-Arzneistoffe
Das derzeit wohl vielversprechendste Einsatzgebiet von unnatürlichen Aminosäuren in der Arzneitherapie sind Antikörper-Wirkstoff-Konjugate (kurz ADC, antibody-drug-conjugates). Solche ADC werden vorwiegend für die Krebstherapie eingesetzt und erforscht, denn die sehr spezifischen Antikörper bringen die oft nebenwirkungsreichen Wirkstoffe direkt zu den Tumorzellen. Dadurch kann eine Therapie bei gegebener Dosis effektiver sein, während durch die geringeren Nebenwirkungen gleichzeitig höhere Dosen möglich sind.
Um ADC herzustellen, müssen die Antikörper und Wirkstoffe auf irgendeine Art verbunden werden. Noch werden dazu meist unspezifische Methoden verwendet, jedoch entstehen dadurch sehr heterogene ADC mit einer unterschiedlichen Anzahl von Wirkstoffmolekülen, die an unterschiedlichen Stellen an die Antikörper gebunden sind.
Es ist aber auch möglich, die Wirkstoffe über unnatürliche Aminosäuren an die Antikörper zu binden, die mittels stop codon suppression sehr kontrolliert in die Antikörper eingebaut werden können. Während es zwar noch keine ADC mit dieser Technologie in der Klinik gibt, könnten so Antikörper-Wirkstoff-Konjugate mit größerer Effektivität, geringerer Toxizität und einigen anderen positiven Eigenschaften (vor allem solche pharmakokinetischer Art) hergestellt werden als bei den bisherigen heterogenen ADC.
Auf ähnliche Weise wie Antikörper über unnatürliche Aminosäuren mit Wirkstoffen verbunden werden, können auch zwei Antikörper oder Antikörper-Fragmente verknüpft werden. Dadurch erhält man bispezifische Antikörper, die an zwei Ziele binden können. Eines davon kann beispielsweise das Oberflächenprotein einer Tumorzelle sein, während das andere auf einer Immunzelle zu finden ist. Der bispezifische Antikörper bringt die Tumor- und die Immunzelle so für längere Zeit in direkte räumliche Nähe und fördert die Zerstörung der Tumorzelle durch die Immunzelle.
Abgesehen von Antikörpern werden auch andere Protein-Arzneistoffe mit unnatürlichen Aminosäuren erforscht. Eine Option sind Proteine, die spezifisch mit einer Zielstruktur – normalerweise einem anderen Protein – interagieren und deren Funktion dadurch hemmen. Für eine verlängerte Wirkdauer und ein vergrößertes therapeutisches Fenster können diese Protein-Arzneistoffe über eine unnatürliche Aminosäure kovalent mit der Zielstruktur verbunden werden. Diese kovalente Bindung ist stärker und stabiler als normale Interaktionen zwischen zwei Molekülen, wodurch die Hemmung effektiver und länger anhaltend ist. Für die Chemie-Interessierten: Als Aminosäure werden dabei normalerweise elektrophile Moleküle verwendet, die mit nukleophilen Aminosäuren wie Cystein oder Lysin im Zielprotein reagieren.
Unnatürliche Aminosäuren in der Klinik?
Weiter therapeutische Anwendungen des erweiterten genetischen Codes möchte ich nur kurz anreißen. Dazu gehört eine bessere Regulierung von CAR-T-Zellen – genetisch veränderte Immunzellen in der Krebstherapie, über dich ich hier auch schon geschrieben habe, verbesserte Impfstoffe, bei denen Aminosäuren verwendet werden, die eine stärkere Immunreaktion hervorrufen oder auch mögliche Gentherapien in vivo, die aber noch weit in der Zukunft liegen.
Ganz allgemein wird mit der Erweiterung des genetischen Codes für therapeutische Zwecke gerade erst begonnen. Für viele Ansätze existieren überzeugende experimentelle Belege oder auch erste Studien in Tiermodellen, aber bis Arzneistoffe mit unnatürlichen Aminosäuren standardmäßig in der Klinik zu finden sein werden, wird noch einige Zeit vergehen müssen. Ihre Bedeutung wird wahrscheinlich eher in bestimmten, eher spezialisierten Fällen zu finden sein. Es werden wohl kaum reihenweise kovalente Proteinarzneistoffe auftauchen, aber ich denke, ab und an wird die Verwendung unnatürlicher Aminosäuren eine Arzneitherapie definitiv verbessern oder erst ermöglichen können.
—
Falls euch dieser Text gefallen hat, empfehlt ihn doch gerne weiter, folgt PharmBlog auf Social Media oder abonniert meinen Newsletter, um keinen Blogpost mehr zu verpassen!
Die Entdeckung des Grün Fluoreszierenden Proteins, kurz GFP, aus der Qualle Aequorea victoria hat die Molekularbiologie grundlegend verändert. Dank seiner Fluoreszenz können wir heute in lebenden Zellen beobachten, wie Proteine sich bewegen, miteinander interagieren und auf Reize reagieren. Daher möchte ich in diesem Text dieses eigentlich unscheinbare Protein näher beleuchten und zeigen, wie es so unverzichtbar für die moderne Molekularbiologie geworden ist.
Einschub: Fluoreszenz und Lumineszenz
Bevor wir so richtig anfangen, möchte ich noch ganz kurz klären, was Fluoreszenz und Lumineszenz sind (falls ihr das sowieso schon wisst, dann überspringt diesen Absatz doch einfach): Fluoreszenz ist die Eigenschaft von Molekülen, Licht einer bestimmten Wellenlänge – also einer bestimmten Farbe – zu absorbieren und Licht mit einer größeren Wellenlänge abzugeben. (Bio-)Lumineszenz dagegen benötigt kein Anregungslicht, sondern nutzt chemische Reaktionen zur Lichterzeugung.
GFP unterm Mikroskop
Wieso sollte ein Protein wie GFP, auch wenn es leuchten kann, ein ganzes Wissenschaftsgebiet revolutionieren? Es ist auf jeden Fall nicht die Fluoreszenz allein. Denn genauso wichtig ist, dass man andere Proteine ziemlich einfach damit markieren kann.
Man kann nämlich sogenannte Fusionsproteine herstellen, die aus GFP und einem anderen Protein bestehen, das man gerne untersuchen möchte. Solche Fusionsproteine sind wie jedes andere Protein auch genetisch codiert. Wird das entsprechende Gen in eine Zelle eingebracht, stellt sie das fluoreszierende Fusionsprotein her. Und was man damit jetzt anstellen kann, macht GFP zu dem Game Changer, der es ist.
Unter einem Fluoreszenzmikroskop betrachtet fluoresziert dann nicht einfach nur die ganze Zelle. Nein, das Leuchten ist nur dort zu finden, wo sich das zu untersuchende Protein befindet. Damit kann man also die Lokalisation von Proteinen in einer Zelle erkennen. Und nicht nur das: Beobachtet man die Zelle über einen längeren Zeitraum, kann man auch die Bewegung von Proteinen durch die Zelle in Echtzeit beobachten – z.B. wenn ein Membranprotein aus der Zellmembran wieder ins Innere der Zelle aufgenommen wird.
Die Fluoreszenzmarkierung von Proteinen ermöglicht jedoch nicht nur solche „einfache“ Fluoreszenzmikroskopie, sondern auch diverse Techniken der super resolution microscopy. Das sind Formen der Fluoreszenzmikroskopie, bei der Strukturen aufgelöst werden können, die kleiner sind als die eigentliche Auflösungsgrenze. Mithilfe geschickter Techniken und des richtigen Fluorophors kann dieses Abbe-Limit für die minimale Auflösung dennoch überwunden werden, bis hin dazu, dass sogar einzelne Proteine beobachtet werden können.
Nicht nur Mikroskopie
Fluoreszenzproteine sind nicht nur in der Mikroskopie unverzichtbar, sondern finden auch in anderen Techniken breite Anwendung. Beispielsweise kann man mit einer FRET genannten Technik mit zwei unterschiedlichen Fluoreszenzproteinen messen, ob zwei Proteine miteinander interagieren, indem man sie jeweils mit einem anderen Fluoreszenzprotein markiert. Wenn die Proteine nahe genug zusammenkommen, überträgt das eine Fluoreszenzprotein seine Energie auf das andere, wodurch dieses ebenfalls zu leuchten beginnt. Auf diese Weise kann die Interaktion der Proteine sichtbar gemacht und gemessen werden – allein durch ihre Fluoreszenz!
Man kann fluoreszierende Proteine auch hervorragend als Reporter einsetzen. Ohne jetzt zu sehr ins Detail zu gehen, werden solche Reporter-Assays verwendet, um die Expression oder Funktion eines anderen Gens zu untersuchen. Das Fluoreszenzprotein berichtet – engl. to report – also über ein anderes Gen, Protein etc.
Ich will nochmal betonen, dass das alles in lebenden Zellen funktioniert. Wir können also wortwörtlich zuschauen oder über Techniken wie FRET messen, wie sich Biomoleküle in der Zelle bewegen, miteinander interagieren und auf Reize reagieren. Das müssen allerdings auch keine einzelnen Zellen in der Zellkultur sein – nein, Fluoreszenzproteine werden auch zur Forschung in komplexen Organismen wie beispielsweise Mäusen verwendet.
GFP – Eine Entdeckung aus dem Meer
GFP stammt ursprünglich aus einer Quallenart namens Aequorea victoria, die im Pazifischen Ozean lebt. Was GFP zum großen Durchbruch verholfen hat, ist vor allem seine Einfachheit. Es formt eine stabile Struktur, die β-Fass genannt wird und, naja, fassförmig ist. Im Inneren dieses Fasses liegt der eigentliche fluoreszierende Teil von GFP, das Fluorophor. Dieses Fluorophor bildet sich von selbst aus den Seitenketten der Aminosäuren, aus denen das GFP besteht. Es braucht also weder irgendwelche Cofaktoren oder sonstige zusätzliche Stoffe noch muss es von Enzymen erst zum richtigen Fluorophor umgesetzt werden, sondern funktioniert von ganz allein. Dadurch kann GFP in quasi jeder Zelle ohne Probleme exprimiert werden, ohne dass man sich Gedanken darüber machen muss, ob diese Art von Zellen überhaupt geeignet ist.
Da GFP und Fluoreszenzproteine im Allgemeinen so wichtig sind, ist es wohl nicht überraschend, dass es für die Entdeckung von GFP im Jahr 1962 und dessen Weiterentwicklung auch einen Nobelpreis gab. Aber seit 1962 ist viel passiert – wobei seit den Neunzigern wohl passender wäre, weil das GFP-Gen erst dann kloniert und GFP auch erst danach richtig charakterisiert wurde.
Inzwischen gibt es unzählige Fluoreszenzproteine, die von GFP abgeleitet sind. Sie fluoreszieren in anderen Wellenlängen als GFP, sind stabiler oder sind sogar an- bzw. abschaltbar. Außerdem wurden auch andere Fluoreszenzproteine entdeckt und daraus wiederum modifizierte Versionen hergestellt, so dass heutzutage eine Unmenge an Fluoreszenzproteinen zur Verfügung stehen, je nachdem, was für ein bestimmtes Experiment gerade benötigt wird.
Ähnlich wie die Fluoreszenzproteine oder in Kombination mit ihnen können auch small molecule-Fluoreszenzfarbstoffe verwendet werden. Das sind keine großen Biomoleküle wie Proteine, sondern kleine organische Moleküle. Im Vergleich zu den Fluoreszenzproteinen bieten sie einige bestimmte Vor- und Nachteile. Im Allgemeinen ist es aber deutlich aufwändiger, ein Protein damit zu markieren. Statt ein genetisch codiertes Fusionsprotein verwenden zu können, müssen sie z.B. mithilfe von Click-Reaktionen, die ich in meinem Text zum Chemie-Nobelpreis 2022 beschrieben habe, an dem Zielprotein befestigt werden.
Licht ins Dunkel bringen
Ich denke nicht, dass ich der Vielzahl von Anwendungen und Weiterentwicklungen von Fluoreszenzproteinen in diesem Text wirklich genüge tun kann. Aber hoffentlich habt ihr jetzt ein Gefühl dafür, wieso sie für die Biowissenschaften so unentbehrlich sind. Sie bringen im wahrsten Sinne des Wortes Licht ins Dunkel innerhalb von Zellen und ermöglichen es uns, Abläufe zu sehen – ob mit Messgeräten oder unseren eigenen Augen – die uns ansonsten verborgen geblieben wären. Alles dank der Quallen, die dieses tolle Werkzeug „für uns“ erfunden haben.
Bevor dieser Text zu Ende ist, möchte ich aber noch eine Sache erwähnen: Denn aufmerksame Lerser:innen werden sich vielleicht gefragt, woher in einer Qualle das Anregungslicht herkommt, das GFP ja braucht, um zu leuchten. Tatsächlich ist es so, dass GFP in den Quallen eben nicht durch Licht angeregt wird, sondern durch ein biolumineszentes Protein, das mithilfe von chemischen Reaktionen GFP anregen oder auch selbst Licht erzeugen kann.
Und eben solche biolumineszente Proteine werden in der molekularbiologischen auch verwendet. Hier sind es aber andere Tiere, die uns ihr Leuchten zur Verfügung gestellt haben. Häufig benutzte biolumineszente Proteine stammen nämlich aus Glühwürmchen oder auch Korallen.
—
Falls euch dieser Text gefallen hat, dann lest doch gerne auch den letzten Beitrag, empfehlt PharmBlog weiter oder abonniert meinen Newsletter, um keinen neuen Beitrag mehr zu verpassen.
Aber was ist AlphaFold eigentlich genau, was bringt es und was kann es wirklich? Darauf werde ich in diesem Text einen kritischen Blick werfen.
Wieso sind Proteinstrukturen so wichtig?
Eins erstmal vorneweg: AlphaFold und andere KIs zur Vorhersage von Proteinstrukturen sind extrem beeindruckend. Die dreidimensionale Struktur von Proteinen ist kompliziert, und eine Möglichkeit, sie verlässlich vorherzusagen, war lange ein unerfüllbarer Traum. Aber wie verlässlich sind diese KIs wirklich? Wie funktioniert das? Und vor allem, für was brauchen wir diese Proteinstrukturen überhaupt?
Beschäftigen wir uns zuerst mit der letzten dieser Fragen: Wofür brauchen wir die Struktur von Proteinen? Im Prinzip ist es ganz einfach, denn die Struktur bestimmt bei Proteinen zum Großteil die Funktion.
Proteine bestehen aus Aminosäuren, die eine hinter der anderen aufgereiht sind. Davon gibt es – mit ein paar Ausnahmen – 20 Stück. Würden die alle nur in einer langen Kette aneinander hängen, wären die möglichen Fähigkeiten von Proteinen sehr begrenzt. Wenn wir uns aber echte Proteine anschauen, können die jedoch sehr, sehr viel. Sie können als Enzyme biochemische Reaktionen katalysieren, sie können als Rezeptoren Botenstoffe erkennen, sie können als Transporter Stoffe über Zellmembranen transportieren und sie können Festigkeit und Halt geben – denkt da nur an eure Nägel.
Diese Fähigkeiten von Proteinen entstehen dadurch, dass ihre 3D-Struktur die richtigen Aminosäuren an die richtige Stelle bringt. Dort können sie dann miteinander und ihrer Umgebung interagieren und beispielsweise eine Bindetasche für andere Moleküle bilden.
Wenn wir also verstehen wollen, wie Proteine funktionieren – und das müssen wir vor allem auch, weil darauf die meisten unserer Arzneimittel basieren – müssen wir ihre Struktur verstehen.
Was ist AlphaFold 3?
Kommen wir jetzt zum „Star“ dieses Textes – AlphaFold. AlphaFold ist ein KI-Werkzeug zur a priori Vorhersage von Proteinstrukturen (seit AlphaFold 3 werden aber auch andere Biomoleküle wie z.B. DNA besser unterstützt). Aus der Aminosäure-Sequenz eines beliebigen Proteins kann also dessen Struktur vorhergesagt werden.
Diese Struktur kann dann zum Beispiel zur Entwicklung neuer Arzneistoffe verwendet werden. Denn gerade dafür braucht man oft ein genaues Bild davon, wie der Wirkstoff an das Protein bindet und mit welchen Aminosäuren er dort interagiert. Und man muss wirklich zugeben, dass AlphaFold erstaunlich gut ist. Wie schon gesagt ist die dreidimensionale Struktur von Proteinen eine komplizierte Angelegenheit und bei vielen Proteinen stimmen die Vorhersage und die experimentell bestimmte Struktur sehr gut überein. Allerdings ist AlphaFold lange nicht perfekt, auch nicht seit AlphaFold 3. Genauso wie es bestimmte Stärken hat, hat es auch Schwächen, die meiner Einschätzung nach sehr schwierig zu überwinden sein werden. Vieles davon wird in diesem Paper von 2023 schön zusammengefasst.
Unerwartetes entdecken
Einer der Hauptgründe, weshalb AlphaFold so gut ist, ist die Qualität der Trainingsdaten. Wie ChatGPT zum Beispiel ist AlphaFold auch ein sogenanntes large language model, also eigentlich ein Sprachmodell. Nur ist die Sprache, die AlphaFold spricht, eben keine Menschliche, sondern die „Sprache“ der Aminosäuren. Aber genau wie bei ChatGPT, das mit einer Unzahl von Texten trainiert wurde, braucht auch AlphaFold Trainingsdaten. Und hier hatten die Entwickler:innen enormes Glück, denn es existieren sehr viele, sehr gute experimentell bestimmte Proteinstrukturen, die frei zugänglich sind. Ohne diese Daten, die in Jahrzehnten strukturbiologischer Arbeit gewonnen wurden, wäre AlphaFold nicht möglich gewesen.
Das führt allerdings auch dazu, dass AlphaFold Schwierigkeiten damit hat, Unbekanntes oder Unerwartetes zu entdecken – es funktioniert ja auch durch den Vergleich mit bekannten Strukturen. Eine der großen Stärken experimenteller Methoden, solche unerwarteten Strukturmotive, Cofaktoren, Ionen oder Modifikationen zu entdecken ist damit eine der Schwächen AlphaFolds. Und die eigentlich unerwarteten Dinge sind eben oftmals die interessantesten.
Flexible Proteine sind ein Problem
Besonders gut sind die Vorhersagen von AlphaFold bei Proteinen (oder Teilen von Proteinen), die eine sehr stabile und gut definierte Struktur haben – so wie Helices und β-Faltblätter, für diejenigen von euch, die sich auskennen. Aber 30 % aller (eukaryotischer) Proteine besitzen Regionen, die man als intrinsically disordered bezeichnet und die im Prinzip gar keine festgelegte Struktur besitzen. Einige Protein sind sogar komplett intrinsically disordered und besitzen kaum stabile Strukturmotive. Solche flexiblen Proteine und Regionen bereiten der Strukturbiologie seit jeher Probleme, sei es experimentell oder via KI.
Es ist aber auch möglich, dass sich aus einer flexiblen Region kurzzeitig eine stabile Konformation (so werden definierte Proteinstrukturen auch bezeichnet) ergibt. Solche induzierten Konformationen entstehen häufig durch Wechselwirkungen mit z.B. anderen Proteinen. AlphaFold trifft seine Vorhersagen rein aus der Aminosäuresequenz eines Proteins und „weiß“ nichts über dessen physikochemische Eigenschaften. Es kann also auch nicht vorhersagen, welche Auswirkungen solche Wechselwirkungen auf die Struktur eines Proteins haben und erkennt die induzierte Konformation möglicherweise nicht.
Proteine sind ständig in Bewegung
Worauf physikochemische Wechselwirkungen noch einen großen Einfluss haben ist die Bewegung – die Dynamik – eines Proteins. AlphaFold liefert statische Bilder einer Proteinstruktur, aber eigentlich sind Proteine ständig in Bewegung und wechseln zwischen unterschiedlichen Konformationen hin und her. Das ist zum Beispiel der Fall, wenn ein Signalmolekül an ein Rezeptorprotein bindet; um dieses Signal weiterzuleiten muss der Rezeptor seine Struktur etwas verändern. Solche Unterschiede zwischen aktiver und inaktiver Form eines Proteins stellen für die Vorhersage der Struktur immer noch ein Problem dar und häufig erhält man eine Mischung aus beiden Möglichkeiten.
Details aus obiger Überlagerung, bei denen die Interaktionen zwischen den beiden Proteinen in experimenteller Struktur und Vorhersage nicht übereinstimmen
Auch andere Prozesse können dafür sorgen, dass Proteine ihre Struktur verändern. Posttranslationale Modifikationen – das „Dekorieren“ mit bestimmten chemischen Gruppen, nachdem die Aminosäuresequenz fertig ist gehört dazu, oder auch der pH-Wert. In bestimmten Bereichen einer Zelle herrschen andere pH-Werte und beeinflussen das Verhalten von Proteinen. Das kann AlphaFold jedoch auch nicht in jede seiner Vorhersage mit einkalkulieren.
(Not So) Open Science
Eine andere Sache, die ich an AlphaFold bedenklich finde, hat nichts mit dem Programm an sich zu tun, sondern mit den Unternehmen, die dahinter stehen. Wie Retraction Watch berichtet, haben Google und dessen Tochterunternehmen Deep Mind den Code (und die Trainingsdaten) von AlphaFold 3 nicht öffentlich gemacht – nicht einmal den Reviewern des Papers, das über die neue AlphaFold-Version berichtet. Es gibt zwar den AlphaFold-Server, den man für Simulationen mit AlphaFold 3 nutzen kann, allerdings nur für eine begrenzte Zahl an Aufträgen pro Tag und nicht für alle Vorhersagen, die es kann – oder können sollte.
Das macht es nicht nur unmöglich, die Angaben über die Leistungsfähigkeit des Programms genau zu überprüfen, sondern widerspricht auch den Grundsätzen guter Wissenschaft. Daten und Code sollten für die Wissenschafts-Community zugänglich sein, um die Forschung möglichst weit voran zu bringen und Ergebnisse überprüf- und replizierbar zu machen.
Fazit: Was kann AlphaFold?
Das Ganze liest sich jetzt möglicherweise, als wäre ich kein allzu großer Fan von KI-Werkzeugen zur Vorhersage von Proteinstrukturen. Aber dem ist eigentlich nicht so – man muss sie nur als das betrachten, was sie sind. Nämlich Werkzeuge, mit ihren eigenen Einsatzgebieten, Stärken, Schwächen und Limitationen.
Ich wollte mit diesem Text einen eher kritischen Blick auf AlphaFold und Co. werfen, vor allem nach der extrem lobenden Berichterstattung der letzten Tage. Denn so gut AlphaFold auch ist – und es ist sehr gut – wird es nicht die experimentelle Strukturbiologie überflüssig machen oder uns im Rekordtempo einen neuen Arzneistoff nach dem anderen entwickeln lassen. Tatsächlich funktionieren AlphaFold-Vorhersagen für die Entwicklung neuer Arzneistoffe schlechter als solche, die auf experimentellen Daten basieren.
Stattdessen muss es sinnvoll in Arbeitsabläufe eingebunden werden. Seine Geschwindigkeit und Einfachheit muss verwendet werden, wenn sich aufwändige Experimente nicht lohnen. Experimente hingegen sind immer noch nötig, um neue und unerwartete Dinge zu entdecken – und um Vorhersagen überprüfen zu können. Aber richtig angewendet sind AlphaFold und Co. auf jeden Fall Werkzeuge, die in den Werkzeugkasten der Wissenschaft gehören und die anderen Werkzeuge darin gut ergänzen können.
Wenn euch dieser Text gefallen hast, abonniert doch gerne meinen Newsletter, um keinen neuen Beitrag mehr zu verpassen!
Meine Biomoleküle dieses Monats sind Botenstoffe des Gehirns, die zwar sehr unterschiedlich sein können, aber trotzdem alle einen großen Einfluss auf die Kommunikation zwischen Nervenzellen haben. Sie sind an den grundlegendsten Funktionen des Körpers beteiligt und Störungen in diesem System können mitunter zur Entstehung vieler Erkrankungen führen: die Neuropeptide.
Über einhundert Neuropeptide
Was Neuropeptide genau sind, ist aber gar nicht so einfach zu beantworten. Denn im Vergleich zu anderen Signalmolekülen im Gehirn gibt es von ihnen deutlich mehr und auch deutlich unterschiedlichere. Der – sehr passend benannte – Text What Are Neuropetides?beschreibt sie so: „Ein Neuropeptid ist ein kleiner, proteinartiger Stoff, der von Nervenzellen produziert und gesteuert freigesetzt wird, und auf neuronale Strukturen wirkt“.
In diesem Satz steckt eine ganze Menge drin, aber bevor wir ihn genauer unter die Lupe nehmen, schauen wir uns gemeinsam einige Beispiele für Neuropeptide an: Da wären zum Beispiel die endogenen Opioide, die unter anderem bei der Empfindung von Schmerzen oder Stress wichtig sind, das als „Kuschelhormon“ bekannte Oxytocin, Vasopressin, das den Wasserhaushalt des Körpers und damit auch den Blutdruck steuert, oder ACTH, das den Cortisol-Spiegel im Blut reguliert. Außerdem gibt es noch über einhundert andere Neuropeptide, die alle unterschiedlichste Funktionen übernehmen. Um zu erfahren, was diese mehr als einhundert Stoffe mit ihren verschiedenen Funktionen gemeinsam haben, müssen wir uns der obenstehenden Definition widmen.
Neuropeptid oder Hormon – oder beides?
„Kleiner, proteinartiger Stoff“ ist relativ selbsterklärend. Neuropeptide sind – offensichtlicherweise – Peptide, bestehen also wie Proteine auch aus Aminosäuren. Und klein sind sie, weil sie nur aus wenigen Aminosäuren bestehen.
Sie stammen aus Nervenzellen und werden von ihnen erst auf ein bestimmtes Signal hin freigesetzt. Und wenn sie freigesetzt wurden, binden sie wieder an Rezeptoren in der Membran einer Nervenzelle und beeinflussen dort die Signalweiterleitung.
„Aber“, werden manche von euch jetzt sagen, „du hast gesagt, dass Oxytocin oder Vasopressin Neuropeptide sind. Sind das nicht eigentlich Hormone?“ Und damit hättet ihr zwar recht, ich hätte allerdings ebenso recht. Denn ein Stoff kann gleichzeitig ein Hormon und ein Neuropeptid sein: Hormone sind Substanzen, die von einem Organ freigesetzt werden, über den Blutkreislauf weitertransprotiert werden, und dann auf ein anderes Organ wirken. Damit können einige Neuropeptide ohne Probleme auch Hormone sein. Und nicht nur das: Manche Stoffe, die von Nervenzellen freigesetzt werden – und damit als Neuropeptide gelten – können auch von anderen Zellen abgegeben werden und sind in diesem Fall dann keine Neuropeptide, sondern „nur“ Peptidhormone. Etwas verwirrend, ich weiß, aber letztendlich bedeutet das nur, dass ein und der selbe Stoff gleichzeitig ein Neuropeptid und ein Hormon sein kann, oder er kann zwar beides sein, aber jeweils in anderen Kontexten.
Ob das jetzt so wichtig ist? Da bin ich mir nicht so sicher. Denn schließlich sind „Neuropeptid“ und „Hormon“ nur menschengemachte Kategorien, um die Realität zu beschreiben, und in welche Kategorie wir eine Substanz stecken, ändert ihre Realität nicht.
Neuropetide steuern Hunger und Sättigung
Aber um weniger endlich weniger theoretisch zu werden, und uns Neuropeptide „in Aktion“ anzuschauen, betrachten wir zwei Substanzen, die an der Entstehung von Adipositas beteiligt sein können: α-MSH und NPY.
Beide sind unter anderem an der Regulation von Hunger- und Sättigungsgefühlen beteiligt und sind daher im Fokus der Adipositas-Forschung. Auch wenn ich mich jetzt auch auf diese Aufgabe der beiden Neuropeptide konzentrieren werde, sind sie ebenfalls wichtig für viele weitere Körperfunktionen.
α-MSH entsteht aus dem Vorläuferpeptid POMC. Denn je nachdem, wie POMC gespalten wird, können verschiedene Neuropetide daraus entstehen. In manchen Nervenzellen werden daraus die Melanocortine α-MSH, β-MSH oder γ-MSH gebildet, in anderen wiederum endogene Opioide oder ACTH, das die Synthese von Cortisol steuert. So ein Vorläuferpeptid, aus dem verschiedene Produkte entstehen können, ist sehr typisch für die Neuropeptide.
Wenn α-MSH dann gebildet ist – normalerweise, wenn wir etwas gegessen haben – kann es Rezeptoren an der Oberfläche anderer Nervenzellen aktivieren und dort seinen Effekt vermitteln: der Hunger lässt nach und ein Sättigungsgefühl stellt sich ein.
Bei Menschen, die z.B. an genetisch bedingtem POMC-Mangel leiden, funktioniert dieser Regulationsmechanismus nicht. Der Hunger lässt trotz Essens nicht nach, und die Patient:innen entwickeln schweres Übergewicht. Daher gibt es einen Arzneistoff, Setmelanotid, der genauso wie α-MSH die entsprechenden Rezeptoren aktivieren und die Sättigung auslösen kann.
NPY hat die entgegengesetzte Rolle: Die Freisetzung von NPY induziert Hunger, und auch Mutationen im NPY-System sind mit der Entstehung von Adipositas assoziiert. NPY wird genauso wie α-MSH aus einem Vorläuferpeptid gebildet, dem Prepro-NPY. Hier können daraus allerdings nicht so viele weitere Stoffe entstehen wie aus POMC, sondern nur ein weiterer, das C-flanking peptide, über das es nur sehr wenig Literatur gibt.
Und natürlich, wie das in der Biologie meistens ist, hängen die Signalwege von α-MSH und NPY auch zusammen. Zum Beispiel kann das gleiche Signal, das die Freisetzung von α-MSH auslöst, die Ausschüttung von NPY hemmen.
Das nur als kleines Beispiel für die Bedeutung von Neuropeptiden bei der Steuerung von so grundlegenden Dingen wie Hunger und Sättigung. Aber auf ähnliche Weise sind noch dutzende andere Neuropeptide an genauso grundlegenden Prozessen beteiligt.
Wenn euch dieser Text über die Neuropeptide gefallen hat, dann abonniert doch gerne meinen Newsletter, um keinen neuen Blogpost mehr zu verpassen oder lest meinen Beitrag über die vorherigen Biomoleküle des Monats, die nicht codierenden RNAs.
Eine der größten Revolutionen der Medizin war ohne Zweifel die Entdeckung der Antibiotika. Während davor mehr als die Hälfte aller Menschen an Infektionen starben, sind viele dieser damals lebensbedrohlichen Krankheiten heute relativ gut zu behandeln. Doch diese „Unschlagbarkeit“ gegenüber bakteriellen Infektionen wird von Antibiotika-Resistenzen bedroht. Die Entstehung von mehr und mehr Resistenzen ist unvermeidbar, und schon jetzt sind multiresistente Stämme ein großes Problem. Die Entwicklung neuer Antibiotika läuft hingegen nur schleppend. Wie also kann in Zukunft unsere Antwort auf Antibiotika-Resistenzen aussehen?
Das Wettrennen gegen Resistenzen
Der Kampf gegen resistente Bakterienstämme ist wie ein Wettrennen. Aber während die Entwicklung neuer Antibiotika durch wissenschaftliche und gesellschaftliche Gründe – die wir uns später noch genauer anschauen werden – gebremst wird, ist die Entstehung neuer Resistenzen unaufhaltsam.
Dass Bakterien resistent gegenüber bestimmten Wirkstoffen werden, ist die logische Konsequenz aus deren Einsatz. Denn wenn ein Antibiotikum erst einmal „draußen“ in der Welt ist, haben Bakterien, die weniger empfindlich darauf sind, einen evolutionären Vorteil. Sie erwerben Resistenzen gegen diesen Stoff durch Mutationen in ihrem Erbgut, was durch ihre extrem große Zahl und kurzen Generationszeiten viel schneller geht als zum Beispiel evolutionäre Prozesse bei Menschen ablaufen.
Und hat ein Bakterium erst einmal eine Resistenz erworben, kann es sie durch einen sogenannten horizontalen Gentransfer auch an andere Bakterien weitergeben. Dabei wird genetisches Material, beispielsweise in Form von ringförmigen DNA-Stücken, den Plasmiden, von einer Zelle an eine andere übertragen. Dieses genetische Material codiert entsprechende Antibiotika-Resistenzen – aber nicht nur das: Denn oft befindet sich darauf nicht nur die Information für die Resistenz gegen einen Stoff, sondern gegen viele unterschiedliche. Und so kann es dann passieren, dass die Selektion durch die Anwendung eines Antibiotikums quasi nebenbei zum Erwerb vieler weiterer Resistenzen führt.
Wie sich Bakterien gegen Antibiotika wehren
Aber wie funktionieren Resistenzen überhaupt? Da gibt es verschiedene Mechanismen – oder Kombinationen von Mechanismen – die Bakterien resistent machen können. Erst einmal gibt es die intrinsischen Resistenzen, bei denen Bakterien aufgrund ihrer „normalen“ Eigenschaft nicht anfällig für einen Stoff sind. Bakterien können grob in zwei Kategorien eingeteilt werden: Gram-positiv und Gram-negativ. Sie unterscheiden sich durch den Aufbau ihrer Zellwand, was der Grund für viele intrinsische Resistenzen ist. Denn einige Stoffe, z.B. das Antibiotikum Vancomycin, können die Zellwand Gram-negativer Bakterien (genau genommen deren äußere Membran) einfach nicht überwinden.
Intrinsische Resistenzen sind aber nicht diejenigen, die uns Probleme bereiten. Das sind eher die erworbenen Resistenzen. Und während eine verminderte Aufnahme von Antibiotika – beispielsweise durch verringerte Bildung von Kanalproteinen oder vermehrte Bildung von Proteinen, die Antibiotika wieder aus der Zelle heraustransportieren – auch hier ein wichtiger Mechanismus ist, ist es bei Weitem nicht der einzige.
Am simpelsten sind wohl einfach Veränderungen in der Zielstruktur. Denn alle Antibiotika binden an irgendeine Struktur der Bakterien, hauptsächlich Enzyme, um dort ihre Wirkung zu vermitteln. Wenn diese Zielstruktur, das sogenannte Target, durch eine Mutation verändert ist, können Antibiotika schlechter daran binden und werden weniger wirksam (z.B. indem sich durch eine andere Aminosäure im aktiven Zentrum eines Enzym die Bindestelle orthosterischer Hemmstoffe verändert).
Bakterien können sich aber auch direkt gegen Antibiotika wehren, indem sie sie chemisch verändern. Dazu können sie entweder Bindungen spalten – meistens durch Hydrolyse von Estern oder Amiden – oder neue chemische Gruppen an die Antibiotika anhängen. So der so, am Ende führt das dazu, dass die veränderten Stoffe nicht mehr an ihr Target binden können. Die Aufgabe, Antibiotika chemisch zu verändern, übernehmen Enzyme. Und das bekannteste Beispiel hier sind wohl die β-Lactamasen.
β-Lactamasen gehören zu den Penicillin-bindenden Proteinen. Aber außer Penicilline (und generell β-Lactam-Antibiotika) zu binden, können sie diese leider auch abbauen und damit wirkungslos machen. Einige Bakterien besitzen natürlicherweise β-Lactamasen, aber auch viele Stämme, die vorher Penicillin-sensibel waren, werden durch die Bildung von β-Lactamasen resistent. Als Gegenmaßnahme wurden die β-Lactamase-Hemmer entwickelt, also Arzneistoffe, die nur dazu da sind, die abbauenden Enzyme zu hemmen. Sie werden zusammen mit einem Antibiotikum gegeben, um es vor dem Abbau zu schützen. Allerdings gibt es sehr viele unterschiedliche β-Lactamasen, gegen die einzelne Stoffe alleine nicht alle wirken können, und auch die abbauenden Enzyme verändern sich immer weiter – so entstanden zum Beispiel die extended spectrum β-Lactamasen, die noch mehr unterschiedliche Antibiotika abbauen können.
Das größte Problem: Der falsche Umgang
Welcher Mechanismus auch immer für die Resistenz verantwortlich ist, er ist genetisch codiert und kann damit sowohl evolutionär entstehen als auch zwischen Bakterien übertragen werden. Und hier müssen wir uns als Menschheit selbst an die Nase fassen: Denn wir schaffen die perfekten Bedingungen dafür. Die Entstehung von Resistenzen ist nämlich an Orten am einfachsten, an denen viele und viele unterschiedliche Bakterien einer großen Zahl an Antibiotika ausgesetzt sind. Dazu gehören natürlich Krankenhäuser, in denen viele verschiedene Patient:innen mit diversen Infekten behandelt werden müssen. Aber nicht allein die Kliniken sind das Problem. Das Abwasser ist oft mit den unterschiedlichsten (antibakteriellen) Arzneistoffen kontaminiert, sodass auch dort ideale Bedingungen für Entstehung resistenter Stämme herrschen.
Generell ist der größte Faktor, der zur Verbreitung von Antibiotika-Resistenzen beiträgt, der fehlerhafte Umgang mit Antibiotika. Das reicht von unnötig oder falsch verschriebenen Antibiotika durch Ärzt:innen über unzureichende Vorschriften und mangelhafte Aufklärung von Patient:innen bis hin zum übertriebenen Einsatz von Antibiotika in der Tierhaltung und der Kontamination von Wasser und Umwelt.
Daher sind Maßnahmen, unseren Umgang mit antibiotischen Arzneimitteln zu verbessern, eine wichtiges Werkzeug im Wettrennen gegen die Resistenzen. Ein Beispiel sind die Antibiotic Stewardship Programme, die auf mehreren Ebenen und interdisziplinär einen verantwortungsvollen Umgang fördern wollen.
Aber eine Sache muss trotzdem klar gesagt werden: Solange wir Antibiotika verwenden, ist die Resistenz dagegen ein Selektionsvorteil für Bakterien. Das bedeutet, dass Antibiotika-Resistenzen quasi unvermeidbar sind. Und das heißt auch, dass wir neue antibakterielle Wirkstoffe brauchen werden, um Infektionen mit diesen resistenten Bakterien zu behandeln. Wieso das aber gar nicht so einfach ist, und was wir tun können, um dieses Wettrennen doch zu gewinnen, erfahrt im zweiten Teil dieses Textes, den ihr hier findet.
Und wenn euch dieser Beitrag gefallen hat, dann abonniert doch gerne meinen Newsletter, um keinen neuen Blogpost mehr zu verpassen.
Spätestens seit Aufkommen der mRNA-Impfstoffe haben viele zumindest eine grobe Ahnung, was RNA ist. Aber es gibt nicht nur die mRNA, denn eigentlich ist die mRNA – wenn auch die prominenteste der RNA-Arten – deutlich in der Minderheit. Tatsächlich sind 98% aller RNA von Eukaryoten (das heißt Lebewesen mit Zellkern) sogenannte nicht-codierende RNA. Daher sind die nicht-codierenden RNAs meine Biomoleküle des Monats, und in diesem Text werden wir uns diese zu wenig beachteten 98% der RNA etwas genauer anschauen.
mRNA und Translation
Aber beginnen wir doch trotzdem kurz mit der mRNA. Das „m“ steht hier für messenger und genau das ist die mRNA. Sie transportiert die Information über den Aufbau von Proteinen, die auf der DNA gespeichert ist, zu den Ribosomen. Die wiederum übersetzen diese Information dann in einem Translation genannten Prozess in ein Protein. Daher ist die mRNA auch codierende RNA – sie codiert Informationen für den Aufbau von Proteinen.
Für die Translation werden klassischerweise noch zwei anderen Typen von RNA gebraucht: die ribosomale rRNA und die transfer- tRNA. Das sind schon die ersten beiden nicht-codierenden RNAs, denn sie tragen keine Information über die Aminosäuresequenz eines Proteins. Stattdessen ist die rRNA Bestandteil der Ribosomen und die tRNA transportiert die Aminosäuren zum Ribosom und macht die eigentliche „Übersetzungsarbeit“ von mRNA zu Protein.
“Die RNA ist keine Wäscheleine”
Bevor wir uns die anderen nicht-codierenden RNAs anschauen, müssen wir kurz klären, was RNA eigentlich ist: RNA ist eine Nukleinsäure – die Abkürzung RNA steht für ribonucleic acid – und besteht wie die DNA aus einem Zucker-Phosphat-Rückgrat und einer Abfolge von Basen, die bei der mRNA die Information codiert.
Der Unterschied zur DNA besteht in dem Zucker – Ribose statt 2‘-Desoxyribose – und in einer Base – Uracil statt Thymin. Einige Arten von RNA beinhalten aber tatsächlich noch andere, seltenere Basen. Außerdem ist RNA keine Doppelhelix sondern liegt typischerweise einzelsträngig vor. Aber, wie mein Biolehrer in der Schule immer sagte, „die RNA ist keine Wäscheleine“. Stattdessen bildet auch sie lokale Strukturen und Basenpaarungen mit komplementären Basen (U und A sowie C und G) des gleichen oder eines anderen RNA-Strangs.
Und RNAs, die an komplementäre RNA-Stränge binden können, sind weitere wichtige nicht-codierende RNAs.
Interferenz – Kontrolle der Genexpression
Sowohl miRNAs (mi für micro) als auch siRNAs (si für small interfering) machen sich die Bindung an komplementäre mRNA zunutze, um die Genexpression – also die tatsächliche Umsetzung der genetischen Information in ein Protein – zu regulieren.
miRNAs sind genetisch codiert und nach einem relativ komplizierten Herstellungsprozess entsteht ein doppelsträngiges Stück RNA, die reife miRNA. Zusammen mit einigen Protein kann einer dieser RNA-Stränge einen miRISC genannten Komplex bilden. Die miRNA in miRISC kann jetzt an eine komplementäre Stelle in einem mRNA-Strang binden. Typischerweise findet diese Bindung in einem Teil der mRNA statt, die 3‘-untranslatierte Region genannt wird und keine Information über den Aufbau eines Proteins trägt. Die Bindung von miRNA und RISC führt dann dazu, dass der mRNA-Strang abgebaut wird, und das darauf codierte Protein wird nicht hergestellt. Das geschieht, indem die schützenden Enden der mRNA – 3‘-poly-A-Ende und 5‘-cap – entfernt werden. Ohne diesen Schutz ist mRNA in einer Zelle extrem instabil und wird sehr schnell zerstört.
Da die Biologie in den allermeisten Fällen effizient ist und Mechanismen für unterschiedliche Dinge verwendet – was für uns dann oft chaotisch erscheint – ist das nicht die einzige Funktion der miRNA: Sie kann auch die Translation gebundener mRNA hemmen, oder sogar die Genexpression direkt an der DNA im Zellkern beeinflussen.
Ganz ähnlich funktioniert die siRNA. Ihre Biosynthese ist zwar etwas anders, aber auch sie bildet RISCs, die bestimmte mRNA-Stränge erkennen und diese zerstören oder anderweitig ihre Translation verhindern. Durch die komplementäre Basenpaarung der mi- oder siRNA mit ihrer Ziel-mRNA ist dieser Regulationsmechanismus sehr spezifisch.
Diese Spezifität kann man auch für die Arzneitherapie nutzen. Es ist möglich, ganz gezielt Gene, die in eine Erkrankung involviert sind, abzuschalten. Givosiran beispielsweise ist ein siRNA-basierter Arzneistoff, der zur Behandlung der akuten intermittierenden Porphyrie verwendet wird – über Porphyrien habe ich in meinem Text über Häm ein wenig geschrieben. Das gleiche Prinzip wird häufig in der Molekularbiologie verwendet: Durch das Abschalten eines bestimmten Genes kann z.B. dessen Rolle in einem biologischen Prozess untersucht werden.
Ribozyme
Obwohl das noch lange nicht alle nicht-codierenden RNAs waren, möchte ich zum Abschluss nur noch eine davon erwähnen: die Ribozyme. Ribozyme sind RNA-Moleküle, die chemische Reaktionen katalysieren können, ganz genauso wie die bekannteren und häufigeren Enzyme. Ein Beispiel habe ich weiter oben sogar schon einmal erwähnt. Denn manche rRNAs, aus der Ribosomen aufgebaut sind, besitzen katalytische Aktivität und fügen die Aminosäuren eines gerade entstehenden Proteins zusammen.
Ribozyme sind außerdem eine wichtige Stütze der RNA-Welt-Hypothese. Sie besagt, dass die frühesten Lebewesen auf RNA sowohl als Informationsspeicher als auch zur Katalyse von Reaktionen basierten. Diese Aufgaben werden in allen modernen Lebensformen vorranging von DNA bzw. Proteinen übernommen, womit die Ribozyme eine Art „Überbleibsel“ der RNA-Welt sein könnten. (Eine sehr anschauliche, aber nicht wirklich zutreffende Beschreibung von Ribozymen wären Fossilien aus der RNA-Welt.)
Das war jetzt also ein kurzer Rundumschlag zu den 98% der RNA, die keine mRNA sind. Es gäbe – wie bei fast jedem Thema – noch so viel mehr zu sagen, aber das muss dann wohl bis zu einem anderen Blogpost warten. Und falls ihr keine neuen Beiträge mehr verpassen wollt, dann abonniert doch gerne meinen Email-Newsletter.
Im ersten Teil dieses Textes habe ich euch Exa-cel, die erste CRISPR-basierte Gentherapie vorgestellt. Wie wir gesehen haben, ist das CRISPR/Cas9-System extrem gut dazu geeignet, DNA an einer ganz spezifischen Stelle zu editieren. So können dann – wie z.B. bei Exa-cel – bestimmte Gene ausgeschaltet werden.
Das funktioniert, indem eine guide RNA an eine komplementäre DNA-Sequenz bindet und das Cas9-Protein die DNA an dieser Stelle schneidet. Dieser DNA-Doppelstrangbruch führt dazu, dass zufällige Nukleotide (die einzelnen Bausteine der DNA) entfernt oder eingefügt werden. Durch diesen non-homologous end joining genannten Prozess verliert das geschnittene Gen seine Funktion. Mithilfe eines anderen Prozesses können sogar neue Gene an der geschnittenen Stelle eingefügt werden. Was jedoch auch immer das Ziel ist, CRISPR/Cas9 ist ein sehr exaktes und wirkungsvolles Werkzeug.
Aber wenn das CRISPR/Cas9-System ein so tolles Werkzeug ist, warum behandeln wir dann noch nicht alle möglichen Krankheiten damit? Das Potential wäre auf jeden Fall da. Diverse Erbkrankheiten könnten „einfach“ korrigiert werden. Schlimme Autoimmunerkrankungen könnten behandelt werden. Die Krebstherapie könnte enorme Fortschritte machen (beispielsweise könnten mit CRISPR heterologe CAR-T-Zellen hergestellt werden – was das ist findet ihr in meinem Text über die CAR-T-Zelltherapie). Oder Patient:innen mit Diabetes mellitus, gerade vom Typ 1, wären nicht mehr von einer lebenslangen Medikation abhängig.
Nun ja, ein Grund ist, dass wir das Potential des CRISPR/Cas9-Systems noch nicht so lange kennen und solche Dinge eben Zeit brauchen. Aber ein anderer gewichtiger Grund ist, dass noch einige Hürden überwunden werden müssen, bis aus CRISPR eine massentaugliche Therapieoption wird.
Schutzmechanismen und off target-Effekte
Ein – aus biologischer Sicht sehr spannendes – Problem ist, dass die Anwendung von CRISPR/Cas9 die Entstehung von Krebszellen fördern könnte. Laut eines Papers von 2018 lösen die Doppelstrangbrüche, die dabei entstehen, einen eingebauten Schutzmechanismus in Zellen aus: Den Zellzyklusarrest durch das Tumorsuppressorprotein p53. Das bedeutet einfach nur, dass die Zelle sich zum Schutz vor der Verbreitung von DNA-Schäden nicht weiter teilt (über den Tumorsuppressor p53 gibt es auch einen Blogbeitrag von mir, falls ihr gerne mehr darüber wissen wollt). Das führt dann aber dazu, dass bei der Anwendung von CRISPR Zellen selektiert werden, deren Schutzmechanismus defekt ist, da diese sich ja weiter teilen können. Solche Zellen sind dann deutlich anfälliger dafür, zu Krebszellen zu werden, da sich in ihnen einfacher Mutationen akkumulieren können.
CRISPR/Cas9-editierte Zellen könnten also ein größeres Risiko zur Entstehung von Tumoren bergen. Soweit ich weiß, gibt es dazu aber keine klinischen Daten. Gerade bei einer so neuartigen Therapie sollte das allerdings genau im Auge behalten werden. Denn für innovative Therapien, die seltene Krankheiten als Ziel haben oder deutlich besser zu sein versprechen als die bisherige Behandlung, gibt es beschleunigte Zulassungsverfahren – und das auch zurecht. Aber gerade langfristige Folgen wie Krebs könnten dabei erstmal unentdeckt bleiben.
Dann gibt es noch etwas, das off target-Effekte genannt wird. So nennt man es, wenn die guide RNA an andere Stellen der DNA bindet als beabsichtigt, die dann ebenfalls geschnitten werden. Dabei können dann möglicherweise wichtige Gene zerstört werden. Glücklicherweise ist es möglich, solche off target-Effekte mit computerbasierten oder experimentellen Methoden vorherzusagen – was dann für jeden neuen Therapieansatz nötig ist und z.B. auch bei Exa-Cel gemacht wurde.
Aber auch wenn die gewünschte Stelle der DNA geschnitten wird, können Probleme auftreten. Ein Paper ebenfalls von 2018 zeigt, dass es nicht nur zu kleinen indel-Mutationen kommen kann, sondern auch zu sehr großen Veränderung der DNA. Mehrere Kilobasen lange Stücke (das ist ziemlich lang) können deletiert werden, oder das Erbgut wird an dieser Stelle ganz umstrukturiert. Das kann dann wiederum auch andere Gene als nur das Ziel-Gen betreffen, obwohl die guide RNA an die richtige Stelle gebunden hat.
Vektoren und Immunantwort
Letztlich ist bei jeder CRISPR-basierten Therapie auch die Frage, ob sie in vivo oder ex vivo stattfindet, also innerhalb oder außerhalb der Patient:innen. Exa-Cel ist eine ex vivo-Therapie: Stammzellen werden den Patient:innen entnommen, genetisch verändert, und dann wieder eingesetzt. So ein Verfahren ist extrem aufwändig und teuer, und es geht auch mit Nachteilen für die Patient:innen einher. Beispielsweise müssen vor der Infusion von Exa-Cel alle vorhandenen Stammzellen des Knochenmarks mit Zytostatika zerstört werden, damit sich die editierten Stammzellen etablieren können.
Eine der größten Herausforderungen für die in vivo-Anwendung dagegen ist es, den richtigen Vektor zu finden. Denn irgendwie muss das CRISPR/Cas9-System seinen Weg in die richtigen Zellen finden. Dazu gibt es verschiedene Methoden, die jeweils ihre eigenen Vor- und Nachteile haben. Zur Wahl stehen u.a. virale Vektoren wie Lenti- oder Adeno-assoziierte Viren, Liposomen oder Nanopartikel.
Alle Überlegungen auszuführen, die in der Wahl oder Entwicklung des passenden Vektors stecken, würde vermutlich einen eigenen Text benötigen. Aber ein wichtiger Punkt dabei ist die Immunreaktion, die der Vektor auslöst. Gerade virale Vektoren bergen das Potential, vom Immunsystem erkannt und bekämpft zu werden.
Aber tatsächlich ist das nicht nur ein Problem der Vektoren. Das Cas9-Protein selbst ist immunogen, und die Mehrzahl der Menschen besitzen Antikörper und T-Zellen, die gegen die gebräuchlichsten Cas9-Proteine gerichtet sind (beschrieben in diesem Paper). Da besteht dann natürlich die Gefahr, dass die Immunreaktion – auf Vektor oder Cas9 – die Therapie neutralisiert und zusätzlich Nebenwirkungen auslöst.
Das Potential der CRISPR-basierten Therapien
Ihr seht also, dass CRISPR keine Wunderwaffe ist, die alle Krankheiten heilen kann. Aber die Zulassung von Exa-Cel zeigt immerhin, dass CRISPR-basierte Therapien das Potential besitzen, welches wir – oder zumindest die Seriöseren unter uns – uns von ihnen erhofft hatten. Sie können eine ursächliche Behandlung für Krankheiten bieten, für die das ansonsten nur schwer oder gar nicht möglich wäre, und das ist eine extrem vielversprechende Aussicht.
Wir werden auf jeden Fall noch weitere CRISPR-basierte Therapien in die Klinik kommen sehen. Erstmal werden das aber teure und aufwändige Therapien bleiben, die eher selten angewendet werden. Bis CRISPR-basierte Therapien massentauglich sind, müssen noch einige Probleme gelöst werden. Wann und ob überhaupt das möglich ist, wird dann wohl die Zeit zeigen müssen.
Falls euch dieser Blogpost gefallen habt, abonniert doch gerne meinen Email-Newsletter, um keinen neuen Beitrag mehr zu verpassen. Oder lest doch den ersten Teil dieses Textes, falls ihr das noch nicht getan habt.
Vor kurzem wurde in den USA und Großbritannien die erste auf CRISPR basierende Gentherapie überhaupt zugelassen. Seit seiner Entdeckung hat das CRISPR/Cas9-System der Biomedizin viele neue Möglichkeiten verschafft. So ist es schon lange ein selbstverständlicher Teil der Grundlagenforschung und hat seinen Entdeckerinnen einen mehr als verdienten Nobelpreis eingebracht. Und fast ebenso lange wird über das Potential für die Behandlung von Krankheiten gesprochen, das CRISPR besitzt.
Jetzt, da die erste auf CRISPR basierende Therapie – die übrigens den Namen Exa-cel trägt – zugelassen ist, möchte ich in diesem zweiteiligen Blogbeitrag einen genaueren Blick auf die therapeutische Anwendung von CRISPR werfen. Natürlich wird es um Exa-cel gehen, aber da darüber in den letzten Wochen schon sehr viel geschrieben wurde, werden wir uns vor allem die Chancen, Schwierigkeiten und Risiken anschauen, die CRISPR-basierte Therapien generell bereithalten.
Sichelzellanämie und β-Thalassämie
Exa-xel ist eine CRISPR-basierte Gentherapie für die beiden Erbkrankheiten Sichelzellanämie und β-Thalassämie. Bei beiden Krankheiten werden von Mutationen in dem Protein Hämoglobin verursacht, das für den Sauerstofftransport in Blut verantwortlich ist. (Etwas mehr über Hämoglobin erfahrt ihr in meinem Text über Häm).
Hämoglobin besteht aus vier Proteinketten, die sich zu einem großen Protein zusammenlagern. Zwei dieser Ketten werden α-Ketten genannt, und die anderen beiden β-Ketten. Mutationen in den β-Ketten führen dazu, dass bei der β-Thalassämie die Bildung neuer Erythrozyten – die roten Blutkörperchen, die Hämoglobin beherbergen und Sauerstoff transportieren – gestört ist. Die fehlerhaften β-Ketten bei der Sichelzellanämie verursachen eine Verformung der Erythrozyten. Sie werden weniger flexibel, verklumpen und können Blutgefäße verstopfen. Dadurch entstehen starke Schmerzen, eine Vielzahl von Organen wird geschädigt und die Patient:innen haben eine reduzierte Lebenserwartung. Zusätzlich werden Erythrozyten dauerhaft zerstört, sodass die Patient:innen unter einer chronischen Anämie – „Blutarmut“ – leiden.
Beide Erkrankungen werden bisher hauptsächlich mit einer Kombination aus Bluttransfusionen und medikamentöser Therapie behandelt. Keine der bisherigen Therapieoptionen kann tatsächlich die Ursache, die Bildung des mutierten Hämoglobins, bekämpfen.
Exagamglogen autotemcel, wie der der übertrieben umständliche, vollständige Name von Exa-cel lautet, ist die erste Möglichkeit, diese Krankheiten auch (auf eine gewisse Art) ursächlich zu bekämpfen.
Exa-cel
Die Therapie bedient sich dabei quasi eines Tricks. Denn Menschen besitzen nicht nur eine Form von Hämoglobin, sondern zwei. Ungeborene Kinder bilden ein anderes, das fetale Hämoglobin, das statt aus zwei α- und β-Ketten aus zwei α- und γ-Ketten besteht. In den ersten Lebensmonaten wird die Synthese des fetalen Hämoglobins allerdings ab- und die des „normalen“ Hämoglobins angeschaltet.
Weil das fetale Hämoglobin nicht aus β-Ketten besteht, funktioniert es auch ohne Probleme, wenn die schädlichen Mutationen im Gen für die β-Ketten vorliegen. Daher beginnen die Symptome bei Babys mit β-Thalassämie bzw. Sichelzellanämie erst nach einiger Zeit, nämlich wenn sie kein fetales Hämoglobin mehr bilden.
Die Idee hinter Exa-cel ist, die Synthese des fetalen Hämoglobins, das unabhängig von den Mutationen der β-Kette funktioniert, wieder zu aktivieren. Dazu werden den Patient:innen hämatopoetische Stammzellen entnommen, aus denen sich unter anderem die Erythrozyten entwickeln. Die Stammzellen werden mittels CRISPR/Cas9 – dazu gleich mehr – genetisch modifiziert.
Und zwar wird die Synthese des fetalen Hämoglobins normalerweise von dem Transkriptionsfaktor BCL11A – einem DNA-bindenden Protein – unterdrückt. Die Bildung dieses unterdrückenden Transkriptionsfaktors ist abhängig von einem DNA-Abschnitt, der als Enhancer bezeichnet wird. Enhancer sind Abschnitte im Genom von Eukaryoten, die häufig nötig sind, damit ein bestimmtes Gen exprimiert werden kann. Und dieser BCL11A-spezfische Enhancer ist nötig, damit der Transkriptionsfaktor, der die Synthese des fetalen Hämoglobins unterdrückt, gebildet werden kann. In den Enhancer wird jetzt eine Mutation eingeführt, die dafür sorgt, dass er nicht mehr funktioniert. Das wiederum bedeutet, dass es keinen unterdrückenden Transkriptionsfaktor BCL11A mehr gibt, und das heißt dann, dass der Bildung von fetalem Hämoglobin nichts mehr im Weg steht. (Diese Strategie wurde übrigens in diesem Paper von 2015 erstmals beschrieben.)
Die modifizierten Stammzellen werden den Patient:innen wieder zugeführt. Dort differenzieren sie sich (unter anderem) zu Erythrozyten, die jetzt dauerhaft funktionierendes fetales Hämoglobin besitzen.
2020 wurden erste Ergebnisse einer klinischen Studie an zwei Patientinnen veröffentlicht, und 2022 wurden weitere Studienergebnisse an 75 Patient:innen bei einem Kongress vorgestellt. Die Therapie weist zwar auch einige schwerwiegende Nebenwirkungen auf, führt aber zu einer deutlichen Verbesserung der Symptome, macht Bluttransfusionen überflüssig und ist – über den Untersuchungszeitraum – dauerhaft anhaltend.
Dieses Jahr wurde dann bekannt, dass Exa-cel als Therapie für Sichelzellanämie und β-Thalassämie sowohl in Großbritannien als auch den USA zugelassen wird.
CRISPR/Cas9
„Die Stammzellen werden mittels CRISPR/Cas9 genetisch modifiziert“, habe ich oben geschrieben. Das ist ja schön und gut, und davon haben wir ja wahrscheinlich alle schonmal gehört. Aber wie genau funktioniert das?
Das CRISPR/Cas9-System stammt ursprünglich aus Bakterien und Archaeen. Dort fungiert es als eine Art Immunsystem gegen den Angriff von Phagen – Viren, die Bakterien und Archaeen befallen. Denn was tun diese Phagen? Sie schleusen ihr eigenes Erbgut in die Bakterien und Archaeen ein. Daher brauchen diese eine Möglichkeit, fremde DNA zu zerstören: CRISPR/Cas9 (und viele weitere).
Das CRISPR/Cas9-System besteht aus drei Teilen: Ein RNA-Strang, der eine bestimmte DNA-Sequenz binden kann: die crRNA. Ein RNA-Strang, der an die crRNA bindet und eine bestimmte dreidimensionale Struktur, eine Haarnadelschleife formt: die tracrRNA. Und ein Enzym, das den Komplex aus crRNA und tracrRNA bindet: Cas9. Cas9 ist eine Endonuklease, also ein Enzym, das DNA-Stränge durchtrennen kann. Zusammen bindet dieser Komplex an eine bestimmte DNA-Sequenz und schneidet die DNA dort.
Das CRISPR/Cas9-System ist so extrem nützlich, weil man die DNA-bindende Sequenz der crRNA quasi beliebig ändern kann. Dadurch kann ein DNA-Strang an einer gewünschten Stelle gezielt geschnitten werden.
Wie immer gilt auch hier der der Disclaimer: in Realität ist das Ganze ein wenig komplizierter. Zum Beispiel gibt es verschiedene Cas-Proteine mit unterschiedlichen Eigenschaften, die zu schneidende DNA muss bestimmte Motive beinhalten und praktisch wird auch oft eine fusionierte Variante aus crRNA und tracrRNA, die single guide oder sgRNA, verwendet.
Wenn der DNA-Strang dann jedenfalls geschnitten ist, wird er auch wieder repariert. Bei dieser Reparatur wird der DNA-Strang aber oft nicht wieder korrekt zusammengefügt. Stattdessen werden in einem Prozess, der non-homologous end joining heißt, einige Nukleotide – die Bausteine der DNA – entfernt oder eingefügt. Solche indel-Mutationen (insertion und deletion) machen den geschnittenen DNA-Abschnitt oft funktionsunfähig, und tadaa, schon haben wir einen DNA-Abschnitt abgeschaltet.
Es ist auch außerdem möglich, mit dem CRISPR/Cas9-System gezielt DNA-Abschnitte an der Schnittstelle einzufügen, doch das ist nochmal eine etwas andere Geschichte.
Wo ist dabei der Haken?
Wenn das CRISPR/Cas9-System ein so tolles Werkzeug ist, warum behandeln wir dann noch nicht alle möglichen Krankheiten damit?
Darum wird es in Teil zwei dieses Textes gehen, der demnächst erscheinen wird. Darin werden wir uns dann anschauen, welche Probleme noch überwunden werden müssen, um CRISPR wirklich als effektive und massentaugliche Therapie nutzen zu können.
Wenn ihr das nicht verpassen wollt, dann abonniert doch am besten meinen Newsletter, dann werdet ihr direkt über neue Blogbeiträge informiert.