PharmBlog

Ein Blog über die Wissenschaft hinter Arzneimitteln

Nobelpreis-Spezial: Chemie 2024

Den Nobelpreis für Chemie 2024 erhalten David Baker, Demis Hassabis und John Jumper für ihre Entwicklungen im Bereich Protein-Design und Proteinstrukturvorhersage. Deshalb werden wir hier näher betrachten, wieso die Struktur von Proteinen so wichtig ist und was es bedeutet, sie nach eigenem Willen gestalten oder vorhersagen zu können.

Die dreidimensionale Struktur von Proteinen

Über die große Bedeutung der dreidimensionalen Struktur von Proteinen habe ich hier auf diesem Blog schon mehrfach geschrieben. Und das nicht ohne Grund, denn die Struktur eines Proteins bestimmt dessen Funktion.

Auf der rudimentärsten Ebene sind Proteine nur aneinandergereihte Aminosäuren. Als lineare Kette ohne jegliche Struktur könnten sie aber keine ihrer vielfältigen Aufgaben erfüllen: Katalyse von biochemischen Reaktionen, Signalübertragung, Transport… Erst die richtige Faltung der Proteine bringt die richtigen Aminosäuren mit der passenden Reaktivität zu ihrem jeweiligen Platz. Nur mit der richtigen dreidimensionalen Struktur funktioniert ein Protein. Und diese zu kennen kann entscheidend sein, um die Biologie zu verstehen, die Entstehung von Krankheiten nachvollziehen zu können oder neue Arzneimittel zu entwickeln.

Komplett neue Proteine

George Baker hat mit seinen Kolleg:innen und Teammitgliedern eine Methode entwickelt, um neue Proteine von Grund auf designen zu können. Sie hatten also eine bestimmte Struktur als Ziel und berechneten am Computer die Aminosäuresequenz, die das entsprechende Protein haben müsste.

Ihr Ziel-Protein war ein Protein, das aus zwei verschiedenen Arten von Strukturelementen bestand. Diese alpha-Helices und beta-Faltblätter genannten Elemente sind relativ stabil in ihrer Faltung und nehmen eine gut definierte Konformation (so wird die räumliche Anordnung von Proteinen und anderen Molekülen genannt) ein. Für das Design eines neuen Proteins also ideale Bedingungen. Und tatsächlich gelang es ihnen! Das neue Protein hatte genau die Struktur, die sie beabsichtigt hatten.

Und bei dem einen de novo-designten Protein blieb es natürlich nicht. Baker und sein Team haben zeigen können, dass sie verschiedenste Strukturen von Grund auf neu designen können. Außerdem war es sogar möglich, neue Enzyme auf diese Weise zu entwickeln, also Proteine mit katalytischer Aktivität, die chemische Reaktionen ermöglichen. Diese Enzyme reichen allerdings noch lange nicht an die natürlichen, evolutionär entstandenen Enzyme heran.

Das Programm, dass all das ermöglichte, nennt sich Rosetta. Neben dem bekannteren AlphaFold – das wir uns gleich noch genauer anschauen werden – ist Rosetta eines der wichtigsten bioinformatischen Werkzeugen der Protein-Biochemie. Neben dem Design neuer Proteine kann es noch für andere Aufgaben eingesetzt werden, unter anderem auch die Vorhersage der Struktur von Proteinen.

Akkurate Strukturvorhersage

Und die Strukturvorhersage ist auch schon das Stichwort, um zu der anderen Hälfte dieses Chemie-Nobelpreises zu kommen. Damit wurden Demis Hassabis und John Jumper ausgezeichnet. Sie waren maßgeblich an der Entwicklung von AlphaFold beteiligt, einem KI-Werkzeug zur Vorhersage von Proteinstrukturen basierend allein auf ihrer Aminosäuresequenz. Während Hassabis schon die Entwicklung von AlphaFold 1 geleitet hat, kam Jumper erst für AlphaFold 2 hinzu. Allerdings wurde AlphaFold für die zweite Version noch einmal grundlegend verändert, was auch zu einer beeindruckenden Verbesserung seiner Vorhersagen geführt hat.

Die Struktur eines Proteins vorherzusagen ist aufgrund der extrem großen Anzahl möglicher Konformationen keine einfache Aufgabe. Es gab auch Ansätze, den kompletten Faltungsprozess eines Proteins zu simulieren, was aber aufgrund der benötigten Rechenleistung nur sehr begrenzt möglich ist.

AlphaFold hingegen basiert auf einem neuronalen Netz, das mit einer Unmenge von Sequenz- und Strukturdaten trainiert wurde. Es kann die Struktur eines Proteins a priori vorhersagen, nur aus der Abfolge der Aminosäuren in diesem Protein. Das tut es mit einer wirklich beeindruckenden Genauigkeit und ermöglicht uns daher, die Struktur von viel mehr Proteinen zu erkunden, als es mit experimentellen Methoden möglich wäre.

Natürlich ist auch AlphaFold nicht perfekt – über seine Limitationen habe ich in einem früheren Text schon geschrieben. Auch macht es die experimentelle Strukturbiologie auf keinen Fall überflüssig. Aber es ist ein sehr nützliches Werkzeug, und die Fähigkeit, schnell eine große Zahl von Proteinstrukturen vorhersagen zu können, ist zugegebenermaßen revolutionär.

Chemie-Nobelpreis für zwei wichtige Werkzeuge

Ich möchte diesen Text mit einer etwas persönlicheren Note beenden. Als Protein-Biochemiker ist es natürlich ein schönes Gefühl, wenn ein Nobelpreis in das Gebiet der Protein-Biochemie geht. Aber als jemand, der mit experimentellen Methoden an strukturellen Fragestellungen arbeitet, ist da auch ein etwas seltsames Gefühl dabei. Denn der große Erfolg von AlphaFold ist nur dank der extrem guten Trainigsdaten möglich, die in Jahrzehnten strukturbiologischer Arbeit experimentell gewonnen wurden (und nicht zu vergessen der Aufwand, diese Daten zu kuratieren). Diese Trainigsdaten haben AlphaFold erst ermöglicht, und ich persönlich würde das gerne mehr in der Berichterstattung erwähnt sehen.

Nichtsdestotrotz ist dieser Preis mehr als angemessen. Im Prinzip wurden mit Rosetta und AlphaFold zwei der wichtigsten bioinformatischen Werkzeuge für die Protein-Biochemie ausgezeichnet, und sie haben nicht nur in diesem Fachgebiet viele neue Erkenntnisse ermöglicht – und werden es auch in Zukunft höchstwahrscheinlich weiter tun.

Lest doch gerne noch meinen Beitrag zum Medizin-Nobelpreis 2024 oder schaut in die Advanced Information des Chemie-Nobelpreises, falls ihr euch tiefergehend darüber informieren wollt.

Und wenn euch dieser Text gefallen hat, dann empfehlt ihn gerne weiter, folgt PharmBlog auf Social Media oder abonniert meinen Newsletter, um keinen Blogbeitrag mehr zu verpassen.

Nobelpreis-Spezial: Physiologie oder Medizin 2024

Es ist wieder soweit, es ist Nobelpreis-Zeit. Den Anfang macht der Nobelpreis für Physiologie oder Medizin, mit dem 2024 Viktor Ambros und Gary Ruvkun ausgezeichnet werden. Sie erhalten den Preis für „die Entdeckung der microRNA und ihrer Rolle in der post-transkriptionalen Genregulation“.

In diesem Text werden wir gemeinsam herausfinden, was microRNA ist, welche Rolle sie bei der Genregulation spielt und was sie so besonders macht, dass ihre Entdeckung einen Nobelpreis wert ist.

Was ist miRNA?

Tatsächlich hab ich auf diesem Blog schon einmal über microRNA geschrieben, nämlich im Kontext von nicht-codierender RNA im Allgemeinen. Das ist RNA, die nicht wie die mRNA als Überträger für den Bauplan von Proteinen fungiert. Wenn euch das interessiert, dann lest gerne den verlinkten Blogpost. Hier wiederum wird es jetzt ausführlich um die microRNA und die Entdeckungen der beiden Preisträger und ihrer Teams gehen.

Die microRNA – auch als miRNA abgekürzt – ist wie die DNA beispielsweise auch eine Nukleinsäure. Sie besteht daher aus einer langen Kette von sogenannten Nukleotiden, die über ein Zucker-Phosphat-Rückgrat verbunden sind. Jedes Nukleotid verfügt über eine von vier Basen – A, G, C und U – und die Abfolge dieser Basen ist es, was die jeweilige miRNA ausmacht und ihre Funktion ermöglicht.

Apropos Funktion, was genau kann die miRNA eigentlich? Mithilfe von miRNA können Zellen steuern, welche Proteine sie herstellen. Das erreichen sie, indem die miRNA an ein Transkript bindet, ein mRNA-Strang, der die genetische Information aus dem Zellkern ins Zytoplasma transportiert, wo anhand dieses Bauplans ein Protein hergestellt wird. Die Basenabfolge der miRNA ist teilweise komplementär zu der des Transkripts, wodurch die miRNA das richtige Transkript erkennt. Die Bindung der miRNA führt dann dazu, dass das entsprechende Protein nicht hergestellt wird.

Die allererste miRNA

Als Viktor Ambros und Gary Ruvkun mit ihrer Arbeit zu diesem Thema begannen, war davon allerdings noch nichts bekannt. Was sie hatten waren Fadenwürmer – C. elegans, ein häufiger Modellorganismus in den Biowissenschaften – mit bestimmten Mutationen. Diese beiden Mutanten mit den Namen lin-4 und lin-14 wiesen entgegengesetzte Entwicklungsdefizite auf. Bei lin-14 handelte es sich um ein Protein, und bestimmte Mutationen führten zu einer erhöhten Aktivität und einer verlängerten Präsenz des lin-14-Proteins in der Zelle. Die Mutationen befanden sich jedoch nicht in dem Abschnitt des Gens, der für das eigentliche Proteine codiert. Stattdessen waren sie in der 3‘-untranslatierten Region zu finden, einem Abschnitt, der für die Stabilität des mRNA-Transkripts wichtig ist, bei der Herstellung des Proteins aber nicht abgelesen wird.

lin-4 hingegen war allerdings kein Protein, sondern einer kurzer RNA-Abschnitt, der nicht für ein Protein codiert. Seine Basenabfolge aber war teilweise komplementär zur Sequenz der 3‘-untranslatierten Region von lin-14. Mit lin-4 hatten Ambros, Ruvkun und ihre Kolleg:innen damit die erste miRNA entdeckt, welche die Expression des Proteins lin-14 kontrollierte. Diese Art der Regulation der Expression durch miRNA, nachdem das Gen schon zum mRNA-Transkript transkribiert wurde, war bis dahin komplett unbekannt.

Weit verbreitet und konserviert

Dieses Paar aus miRNA und Protein, lin-4 und lin-14, ist zwar nur bei bestimmten Fadenwürmern vorhanden. Aber lin-4 blieb nicht die einzige bekannte miRNA. Gary Ruvkuns Team entdeckte mit let-7 eine miRNA, die in sehr vielen Tieren vorhanden ist und konnte damit beweisen, dass es sich bei miRNA um eine weit verbreitete und evolutionär konservierte Art der Genregulation handelt.

Inzwischen sind noch deutlich mehr Arten von kleinen, nicht-codierenden RNAs bekannt, die auf ähnliche Weise die Expression von Proteinen verhindern. Die small interfering RNA (siRNA) ist hier wohl das bekannteste Beispiel, die sowohl in der Forschung regelmäßig eingesetzt wird, um die Genexpression auszuschalten, als auch als Arzneistoff zur Gentherapie.

“Aktive miRNA” schneidet mRNA

Seit ihrer Entdeckung wurde auch die Biosynthese und der Mechanismus der miRNA genauer untersucht.

miRNAs sind genetisch, also auf der DNA, codiert. Sie können entweder unabhängig von anderen Genen transkribiert werden – haben also eigene Promotoren, DNA-Abschnitte, die Transkription ermöglicht – oder sie liegen als Introns innerhalb eines Protein-codierenden Gens und werden mit diesem zusammen transkribiert (Transkription bezeichnet das „Umschreiben“ von DNA in RNA).

Nach der Transkription liegt dann die miRNA in ihrer frühesten Form vor, als pri-miRNA. Die pri-miRNA wird dann durch unterschiedliche Enzyme prozessiert und aus dem Zellkern ins Zytoplasma transportiert, wo sie als reife, doppelsträngige miRNA endet. Einer dieser beiden komplementären miRNA-Stränge kann dann gemeinsam mit diversen Proteinen einen Komplex bilden, der miRISC genannt wird.

Die miRISC-Komplexe sind dann die „aktive Form“ der miRNA. Sie können an ein mRNA-Transkript binden, das eine Basensequenz komplementär zu dem miRNA-Strang aufweist (wobei miRNA typischerweise nicht vollständig komplementär ist). Die Bindung des miRISC-Komplexes an das Transkript geschieht oft in der oben schon erwähnten 3‘-untranslatierten Region, die keine Information über den Aufbau eines Proteins trägt.

Wenn der miRISC-Komplex an das Ziel-Transkript gebunden hat, beginnt dessen Abbau. Die 3‘-Polyadenylierung und die 5‘-cap werden abgespalten – beides sind Elemente des Transkripts, die ihm Stabilität verleihen. Ohne diese Elemente wird das mRNA-Transkript von der zelleigenen Maschinerie dann schnell abgebaut, ohne dass der darauf codierte Bauplan für ein Protein abgelesen werden kann.

Abgesehen von diesem kanonischen Mechanismus kann miRNA die Expression von Genen allerdings noch auf andere Arten beeinflussen.

Ein essentieller Regulationsmechanismus

Dank den Preisträgern, ihren Teams und Kooperationspartner:innen haben wir also diesen essentiellen Regulationsmechanismus entdeckt, mit dem unsere Zellen die Expression von Proteinen steuern. Inzwischen sind über 1900 miRNAs allein im Menschen bekannt, die sowohl für die Embryonalentwicklung als auch für die normale Funktion von Zellen, Geweben und Organen entscheidend sein können.

Und wenn ihr euch noch ausführlicher mit dem Thema miRNA beschäftigen wollt, kann ich euch wie immer die Advanced Information auf der Website des Nobelpreises empfehlen.

Wenn euch dieser Text gefallen hat, empfehlt ihn gerne weiter, folgt PharmBlog auf Social Media oder abonniert meinen Newsletter, um keinen Blogpost mehr zu verpassen.

Wie die Erweiterung des genetischen Codes neue Arzneimittel ermöglicht

Eine der grundlegendsten Eigenschaften des Lebens auf der Erde ist der genetische Code. Egal bei welchem Lebewesen, wie der Bauplan von Proteinen auf der DNA als Erbinformation gespeichert wird, unterscheidet sich prinzipiell nicht. Trotzdem können wir den genetischen Code verändern und erweitern, und so maßgeschneiderte Proteine herstellen, die es in der Natur so nie geben könnte. Die Erweiterung des genetischen Codes kann uns helfen, nicht nur die Biologie besser zu verstehen, sondern auch effektivere Arzneimittel und Impfstoffe zu entwickeln.

Der Bauplan für Proteine

Bevor wir uns aber mit der Erweiterung des genetischen Codes beschäftigen können, sollten wir allerdings zuerst klären, worum es sich bei dem genetischen Code überhaupt handelt.

Unsere Erbinformation ist auf der DNA codiert, als Abfolge von vier möglichen Bausteinen: den Basen Adenin (A), Guanin (G), Thymin (T) und Cytosin (C). Exakter wäre es zwar, von den entsprechenden Nukleotiden zu sprechen, aber wir bleiben hier bei den Basen. Die Abfolge der Basen stellt einen Bauplan für Proteine dar, die diesem Plan folgend hergestellt werden. Dementsprechend müssen immer bestimmte Kombinationen von Basen für die Bausteine der Proteine, die Aminosäuren, stehen.

Tatsächlich codieren immer drei aufeinanderfolgende Basen – ein sogenanntes Codon – für eine Aminosäure. So können dann die 64 möglichen Codons in die 20 proteinogenen Aminosäuren übersetzt werden; immer zwei oder vier verschiedene Codons stehen für eine Aminosäure. Außerdem gibt es ein Codon, das die Aminosäure Methionin und gleichzeitig den Anfang eines Proteins anzeigt, sowie drei Codons, die das Ende eines Proteins bedeuten. (Die Tatsache, dass mehrere Codons für jeweils eine Aminosäure codieren, bezeichnet man übrigens als degenerierten genetischen Code.)

Die Codesonne zeigt an, welches Codon (beginnend in der Mitte; U statt T, da es sich auf die RNA bezieht) für welche Aminosäure codiert

Dieses Prinzip und die Codierung der Aminosäuren sind bis auf ganz wenige Ausnahmen bei einzelnen Aminosäuren bei allen Lebewesen identisch. Das ermöglicht uns unter anderem, menschliche Proteine und Peptide wie Insulin in Bakterien herstellen zu können, sodass wir für die Behandlung von Diabetes nicht mehr auf Schweine-Insulin angewiesen sind.

Aber wir können auch darüber hinaus gehen. Mithilfe von cleveren Tricks können wir Aminosäuren genetisch codieren, die in der Natur nicht in Proteine eingebaut werden könnten oder sogar solche, die in der Natur gar nicht vorkommen.

Unnatürliche Aminosäuren

Am häufigsten wird dazu eine Technik namens stop codon suppression verwendet. Sie hat Parallelen in der Natur, wo die Aminosäuren Pyrrolysin und Selenocystein kein eigenes Codon besitzen, sondern über die Reprogrammierung eines Stop-Codons in Proteine eingebaut werden.

Für die stop codon suppression wird in ein Gen an der Stelle ein Stopcodon eingebaut, an der im fertigen Protein die unnatürliche Aminosäure sein soll. Wird dieses Protein von einer Zelle dann hergestellt, hört es an der Stelle des eingeführten Stopcodons nicht auf sondern enthält die gewünschte Aminosäure. Allerdings muss die Zelle über zwei Dinge verfügen: einerseits die unnatürliche Aminosäure, die – wie der Name schon sagt – nicht natürlich vorkommt und deshalb von außen zugeführt werden muss. Andererseits ein sogenanntes orthogonales tRNA-/Aminoacyl-tRNA-Synthetase-Paar. Das ist zwar ein echt komplizierter Begriff, bezeichnet aber eigentlich nur die Grundausstattung, die eine Zelle braucht, um Aminosäuren zu einem Protein zusammenzufügen.

Die tRNA erkennt mit ihrem einen Ende das Codon und trägt an ihrem anderen Ende die dazu passende Aminosäure. Dazu wurde sie zuvor von der Aminoacyl-tRNA-synthetase damit beladen. Und da eine Zelle normalerweise nicht über das entsprechende Paar für die unnatürliche Aminosäure verfügt, muss auch das gentechnisch in die Zelle eingebracht werden.

Ein orthogonales Aminoacyl-tRNA-Synthetase-Paar. Die Synthetase (violett) belädt die tRNA (pink) mit der unnatürlichen Aminosäure. (erstellt mit BioRender)

So beeindruckend das ist – Zellen Proteine mit unnatürlichen Aminosäuren herstellen zu lassen – funktioniert das aber leider nicht perfekt. Einerseits kommt das gewählte Stopcodon auch in endogenen Proteinen vor, und zwar tatsächlich als Stopsignal. Daher wird meistens das seltenste der Stopcodons verwendet, TAG oder auch Amber genannt. Außerdem steht die orthogonale tRNA in Konkurrenz mit der zelleigenen Maschinerie, die Stopcodons erkennt und die Proteinexpression beendet. Diesen Konkurrenzkampf verliert die tRNA auch meistens, weshalb Proteine mit unnatürlicher Aminosäure deutlich schlechter exprimiert werden (über den Daumen gepeilt etwa 10 % des Wildtyps). Daher gibt es zum Beispiel Ansätze, Releasing-Faktoren in Zellen auszuschalten, die normalerweise die Stopsignale vermitteln. Das führt dann aber oft dazu, dass die Lebensfähigkeit der Zellen so sehr beeinträchtigt wird, dass die Ausbeute genauso stark leidet.

Außerdem funktioniert das oft nur mit überexprimierten Proteinen. Diese wurden gentechnisch in Zellen eingebracht und es werden deutlich mehr von ihnen hergestellt als von den zelleigenen Proteinen. Wie man sich vorstellen kann, birgt das allerdings das Risiko, die Biologie der Zelle ganz schön durcheinander zu bringen. Es gibt aber seit neustem beispielsweise Möglichkeiten, die Sequenz endogener Proteine auf der RNA-Ebene zu verändern und so sehr effizient unnatürliche Aminosäuren in sie einzubauen, ohne sie überexprimieren zu müssen.

Neue Chemie für Proteine

Mittels stop codon suppression können wir also unnatürliche Aminosäuren in Proteine einbauen. Aber was bringt das jetzt?

Auf der grundlegendsten Ebene geht es darum, Proteinen neue chemische Möglichkeiten zu geben. Denn die Chemie der Aminosäuren ist begrenzt – es gibt ein paar sehr unspektakuläre hydrophobe, einige hydrophile, manche sind sauer oder basisch, ein paar sind nukleophil, können oxidiert oder reduziert werden. Damit schaffen es Proteine zwar, eine unglaublich Fülle an Funktionen zu erfüllen, aber um es mal sehr plakativ zu sagen: Proteine können fast nur Chemie aus der Grundlagen-Vorlesung.

Daher nutzen wir die Erweiterung des genetischen Codes, um Proteinen neue chemische Möglichkeiten beizubringen. Damit eignen sie sich zum Beispiel deutlich besser für manche therapeutische Anwendungen. Bevor wir es darum geht, möchte ich euch aber einige andere Anwendungen des erweiterten genetischen Codes kurz vorstellen.

Erweiterung des genetischen Codes in der Forschung

Unnatürliche Aminosäuren sind wertvolle Werkzeuge in der biochemischen und molekularbiologischen Forschung.

In meinem letzten Blogpost habe ich viel darüber geschrieben, wie nützlich die Markierung von Proteinen mit Fluoreszenzproteinen ist. Unnatürliche Aminosäuren sind auch als Fluoreszenzmarker geeignet – statt aber einfach ein Protein damit zu markieren, kann der Fluoreszenzfarbstoff ganz gezielt an einzelnen Positionen des Zielproteins eingebracht werden. Das ist entweder direkt über fluoreszierende Aminosäuren möglich oder über den Einbau eines click handle. An einer solchen Aminosäure können dann direkt in der Zelle alle möglichen Moleküle befestigt werden.

Abgesehen von Fluoreszenz können Proteine über stop codon suppression auch mit anderen Markierungen versehen werden. Ein Beispiels sind sogenannte spin label für Techniken wie EPR, über die ich auch schon geschrieben habe. Außerdem können Crosslinker eingebaut werden, die ein Protein kovalent mit einem anderen Biomolekül verbinden, lichtgesteuerte Aminosäuren oder auch Nachahmungen posttranslationaler Modifikationen.

Und außerdem existiert noch die Möglichkeit des enzyme engineerings mit unnatürlichen Aminosäuren. Dabei wird die Erweiterung des genetischen Codes genutzt, um die chemischen Möglichkeiten von Enzymen zu erweitern und sie zu maßgeschneiderten Katalysatoren für bestimmte chemische Reaktionen zu machen.

Diese Anwendungen des erweiterten genetischen Codes sind eine Möglichkeit, neue oder bessere Arzneistoffe zu finden – nämlich indirekt, indem unnatürliche Aminosäuren als Werkzeuge in der Charakterisierung von Targets oder Entwicklung, Validierung und Synthese von Arzneistoffen eingesetzt werden. Aber auch der direkte Einsatz eines erweiterten genetischen Codes in Arzneimitteln ist möglich, und einige Beispiele möchte ich euch gerne vorstellen:

Antikörper und Protein-Arzneistoffe

Das derzeit wohl vielversprechendste Einsatzgebiet von unnatürlichen Aminosäuren in der Arzneitherapie sind Antikörper-Wirkstoff-Konjugate (kurz ADC, antibody-drug-conjugates). Solche ADC werden vorwiegend für die Krebstherapie eingesetzt und erforscht, denn die sehr spezifischen Antikörper bringen die oft nebenwirkungsreichen Wirkstoffe direkt zu den Tumorzellen. Dadurch kann eine Therapie bei gegebener Dosis effektiver sein, während durch die geringeren Nebenwirkungen gleichzeitig höhere Dosen möglich sind.

Um ADC herzustellen, müssen die Antikörper und Wirkstoffe auf irgendeine Art verbunden werden. Noch werden dazu meist unspezifische Methoden verwendet, jedoch entstehen dadurch sehr heterogene ADC mit einer unterschiedlichen Anzahl von Wirkstoffmolekülen, die an unterschiedlichen Stellen an die Antikörper gebunden sind.

Antikörper-Wirkstoff-Konjugat (Bild: Bioconjugator, CC BY-SA 4.0=

Es ist aber auch möglich, die Wirkstoffe über unnatürliche Aminosäuren an die Antikörper zu binden, die mittels stop codon suppression sehr kontrolliert in die Antikörper eingebaut werden können. Während es zwar noch keine ADC mit dieser Technologie in der Klinik gibt, könnten so Antikörper-Wirkstoff-Konjugate mit größerer Effektivität, geringerer Toxizität und einigen anderen positiven Eigenschaften (vor allem solche pharmakokinetischer Art) hergestellt werden als bei den bisherigen heterogenen ADC.

Auf ähnliche Weise wie Antikörper über unnatürliche Aminosäuren mit Wirkstoffen verbunden werden, können auch zwei Antikörper oder Antikörper-Fragmente verknüpft werden. Dadurch erhält man bispezifische Antikörper, die an zwei Ziele binden können. Eines davon kann beispielsweise das Oberflächenprotein einer Tumorzelle sein, während das andere auf einer Immunzelle zu finden ist. Der bispezifische Antikörper bringt die Tumor- und die Immunzelle so für längere Zeit in direkte räumliche Nähe und fördert die Zerstörung der Tumorzelle durch die Immunzelle.

Abgesehen von Antikörpern werden auch andere Protein-Arzneistoffe mit unnatürlichen Aminosäuren erforscht. Eine Option sind Proteine, die spezifisch mit einer Zielstruktur – normalerweise einem anderen Protein – interagieren und deren Funktion dadurch hemmen. Für eine verlängerte Wirkdauer und ein vergrößertes therapeutisches Fenster  können diese Protein-Arzneistoffe über eine unnatürliche Aminosäure kovalent mit der Zielstruktur verbunden werden. Diese kovalente Bindung ist stärker und stabiler als normale Interaktionen zwischen zwei Molekülen, wodurch die Hemmung effektiver und länger anhaltend ist. Für die Chemie-Interessierten: Als Aminosäure werden dabei normalerweise elektrophile Moleküle verwendet, die mit nukleophilen Aminosäuren wie Cystein oder Lysin im Zielprotein reagieren.

Unnatürliche Aminosäuren in der Klinik?

Weiter therapeutische Anwendungen des erweiterten genetischen Codes möchte ich nur kurz anreißen. Dazu gehört eine bessere Regulierung von CAR-T-Zellen – genetisch veränderte Immunzellen in der Krebstherapie, über dich ich hier auch schon geschrieben habe, verbesserte Impfstoffe, bei denen Aminosäuren verwendet werden, die eine stärkere Immunreaktion hervorrufen oder auch mögliche Gentherapien in vivo, die aber noch weit in der Zukunft liegen.

Ganz allgemein wird mit der Erweiterung des genetischen Codes für therapeutische Zwecke gerade erst begonnen. Für viele Ansätze existieren überzeugende experimentelle Belege oder auch erste Studien in Tiermodellen, aber bis Arzneistoffe mit unnatürlichen Aminosäuren standardmäßig in der Klinik zu finden sein werden, wird noch einige Zeit vergehen müssen. Ihre Bedeutung wird wahrscheinlich eher in bestimmten, eher spezialisierten Fällen zu finden sein. Es werden wohl kaum reihenweise kovalente Proteinarzneistoffe auftauchen, aber ich denke, ab und an wird die Verwendung unnatürlicher Aminosäuren eine Arzneitherapie definitiv verbessern oder erst ermöglichen können.

Falls euch dieser Text gefallen hat, empfehlt ihn doch gerne weiter, folgt PharmBlog auf Social Media oder abonniert meinen Newsletter, um keinen Blogpost mehr zu verpassen!

GFP: Wie Quallen die Molekularbiologie revolutionierten

Die Entdeckung des Grün Fluoreszierenden Proteins, kurz GFP, aus der Qualle Aequorea victoria hat die Molekularbiologie grundlegend verändert. Dank seiner Fluoreszenz können wir heute in lebenden Zellen beobachten, wie Proteine sich bewegen, miteinander interagieren und auf Reize reagieren. Daher möchte ich in diesem Text dieses eigentlich unscheinbare Protein näher beleuchten und zeigen, wie es so unverzichtbar für die moderne Molekularbiologie geworden ist.

Das Grün Fluoreszierende Protein (PDB 1GFL)

Einschub: Fluoreszenz und Lumineszenz

Bevor wir so richtig anfangen, möchte ich noch ganz kurz klären, was Fluoreszenz und Lumineszenz sind (falls ihr das sowieso schon wisst, dann überspringt diesen Absatz doch einfach): Fluoreszenz ist die Eigenschaft von Molekülen, Licht einer bestimmten Wellenlänge – also einer bestimmten Farbe – zu absorbieren und Licht mit einer größeren Wellenlänge abzugeben. (Bio-)Lumineszenz dagegen benötigt kein Anregungslicht, sondern nutzt chemische Reaktionen zur Lichterzeugung.

GFP unterm Mikroskop

Wieso sollte ein Protein wie GFP, auch wenn es leuchten kann, ein ganzes Wissenschaftsgebiet revolutionieren? Es ist auf jeden Fall nicht die Fluoreszenz allein. Denn genauso wichtig ist, dass man andere Proteine ziemlich einfach damit markieren kann.

Man kann nämlich sogenannte Fusionsproteine herstellen, die aus GFP und einem anderen Protein bestehen, das man gerne untersuchen möchte. Solche Fusionsproteine sind wie jedes andere Protein auch genetisch codiert. Wird das entsprechende Gen in eine Zelle eingebracht, stellt sie das fluoreszierende Fusionsprotein her. Und was man damit jetzt anstellen kann, macht GFP zu dem Game Changer, der es ist.

Unter einem Fluoreszenzmikroskop betrachtet fluoresziert dann nicht einfach nur die ganze Zelle. Nein, das Leuchten ist nur dort zu finden, wo sich das zu untersuchende Protein befindet. Damit kann man also die Lokalisation von Proteinen in einer Zelle erkennen. Und nicht nur das: Beobachtet man die Zelle über einen längeren Zeitraum, kann man auch die Bewegung von Proteinen durch die Zelle in Echtzeit beobachten – z.B. wenn ein Membranprotein aus der Zellmembran wieder ins Innere der Zelle aufgenommen wird.

GFP-markiertes Membranprotein. (aus Serfling et al. 2019)
Das gleiche Membranprotein, nachdem es wieder in die Zelle aufgenommen wurde.

Die Fluoreszenzmarkierung von Proteinen ermöglicht jedoch nicht nur solche „einfache“ Fluoreszenzmikroskopie, sondern auch diverse Techniken der super resolution microscopy. Das sind Formen der Fluoreszenzmikroskopie, bei der Strukturen aufgelöst werden können, die kleiner sind als die eigentliche Auflösungsgrenze. Mithilfe geschickter Techniken und des richtigen Fluorophors kann dieses Abbe-Limit für die minimale Auflösung dennoch überwunden werden, bis hin dazu, dass sogar einzelne Proteine beobachtet werden können.

Nicht nur Mikroskopie

Fluoreszenzproteine sind nicht nur in der Mikroskopie unverzichtbar, sondern finden auch in anderen Techniken breite Anwendung. Beispielsweise kann man mit einer FRET genannten Technik mit zwei unterschiedlichen Fluoreszenzproteinen messen, ob zwei Proteine miteinander interagieren, indem man sie jeweils mit einem anderen Fluoreszenzprotein markiert. Wenn die Proteine nahe genug zusammenkommen, überträgt das eine Fluoreszenzprotein seine Energie auf das andere, wodurch dieses ebenfalls zu leuchten beginnt. Auf diese Weise kann die Interaktion der Proteine sichtbar gemacht und gemessen werden – allein durch ihre Fluoreszenz!

Man kann fluoreszierende Proteine auch hervorragend als Reporter einsetzen. Ohne jetzt zu sehr ins Detail zu gehen, werden solche Reporter-Assays verwendet, um die Expression oder Funktion eines anderen Gens zu untersuchen. Das Fluoreszenzprotein berichtet – engl. to report – also über ein anderes Gen, Protein etc.

Ich will nochmal betonen, dass das alles in lebenden Zellen funktioniert. Wir können also wortwörtlich zuschauen oder über Techniken wie FRET messen, wie sich Biomoleküle in der Zelle bewegen, miteinander interagieren und auf Reize reagieren. Das müssen allerdings auch keine einzelnen Zellen in der Zellkultur sein – nein, Fluoreszenzproteine werden auch zur Forschung in komplexen Organismen wie beispielsweise Mäusen verwendet.

GFP – Eine Entdeckung aus dem Meer

GFP stammt ursprünglich aus einer Quallenart namens Aequorea victoria, die im Pazifischen Ozean lebt. Was GFP zum großen Durchbruch verholfen hat, ist vor allem seine Einfachheit. Es formt eine stabile Struktur, die β-Fass genannt wird und, naja, fassförmig ist. Im Inneren dieses Fasses liegt der eigentliche fluoreszierende Teil von GFP, das Fluorophor. Dieses Fluorophor bildet sich von selbst aus den Seitenketten der Aminosäuren, aus denen das GFP besteht. Es braucht also weder irgendwelche Cofaktoren oder sonstige zusätzliche Stoffe noch muss es von Enzymen erst zum richtigen Fluorophor umgesetzt werden, sondern funktioniert von ganz allein. Dadurch kann GFP in quasi jeder Zelle ohne Probleme exprimiert werden, ohne dass man sich Gedanken darüber machen muss, ob diese Art von Zellen überhaupt geeignet ist.

Struktur von GFP. Das Fluorophor, der eigentlich fluoreszierende Teil, ist gelb markiert. (Bild: Erik A. Rodriguez)

Da GFP und Fluoreszenzproteine im Allgemeinen so wichtig sind, ist es wohl nicht überraschend, dass es für die Entdeckung von GFP im Jahr 1962 und dessen Weiterentwicklung auch einen Nobelpreis gab. Aber seit 1962 ist viel passiert – wobei seit den Neunzigern wohl passender wäre, weil das GFP-Gen erst dann kloniert und GFP auch erst danach richtig charakterisiert wurde.

Inzwischen gibt es unzählige Fluoreszenzproteine, die von GFP abgeleitet sind. Sie fluoreszieren in anderen Wellenlängen als GFP, sind stabiler oder sind sogar an- bzw. abschaltbar. Außerdem wurden auch andere Fluoreszenzproteine entdeckt und daraus wiederum modifizierte Versionen hergestellt, so dass heutzutage eine Unmenge an Fluoreszenzproteinen zur Verfügung stehen, je nachdem, was für ein bestimmtes Experiment gerade benötigt wird.

Anregungs- (violett) und Emissionsspektrum von GFP. Licht im ultravioletten bis blauen Bereich regt GFP an, woraufhin es vor allem im grünen Bereich fluoresziert.

Ähnlich wie die Fluoreszenzproteine oder in Kombination mit ihnen können auch small molecule-Fluoreszenzfarbstoffe verwendet werden. Das sind keine großen Biomoleküle wie Proteine, sondern kleine organische Moleküle. Im Vergleich zu den Fluoreszenzproteinen bieten sie einige bestimmte Vor- und Nachteile. Im Allgemeinen ist es aber deutlich aufwändiger, ein Protein damit zu markieren. Statt ein genetisch codiertes Fusionsprotein verwenden zu können, müssen sie z.B. mithilfe von Click-Reaktionen, die ich in meinem Text zum Chemie-Nobelpreis 2022 beschrieben habe, an dem Zielprotein befestigt werden.

Licht ins Dunkel bringen

Ich denke nicht, dass ich der Vielzahl von Anwendungen und Weiterentwicklungen von Fluoreszenzproteinen in diesem Text wirklich genüge tun kann. Aber hoffentlich habt ihr jetzt ein Gefühl dafür, wieso sie für die Biowissenschaften so unentbehrlich sind. Sie bringen im wahrsten Sinne des Wortes Licht ins Dunkel innerhalb von Zellen und ermöglichen es uns, Abläufe zu sehen – ob mit Messgeräten oder unseren eigenen Augen – die uns ansonsten verborgen geblieben wären. Alles dank der Quallen, die dieses tolle Werkzeug „für uns“ erfunden haben.

Bevor dieser Text zu Ende ist, möchte ich aber noch eine Sache erwähnen: Denn aufmerksame Lerser:innen werden sich vielleicht gefragt, woher in einer Qualle das Anregungslicht herkommt, das GFP ja braucht, um zu leuchten. Tatsächlich ist es so, dass GFP in den Quallen eben nicht durch Licht angeregt wird, sondern durch ein biolumineszentes Protein, das mithilfe von chemischen Reaktionen GFP anregen oder auch selbst Licht erzeugen kann.

Und eben solche biolumineszente Proteine werden in der molekularbiologischen auch verwendet. Hier sind es aber andere Tiere, die uns ihr Leuchten zur Verfügung gestellt haben. Häufig benutzte biolumineszente Proteine stammen nämlich aus Glühwürmchen oder auch Korallen.

Falls euch dieser Text gefallen hat, dann lest doch gerne auch den letzten Beitrag, empfehlt PharmBlog weiter oder abonniert meinen Newsletter, um keinen neuen Beitrag mehr zu verpassen.

Wie gut wirkt eine Behandlung – Klinische Studien verstehen, Teil 2

Nachdem wir im ersten Teil dieses Texts die Grundlagen zur Interpretation klinischer Studien wie Kontrollgruppen, Randomisierung und Verblindung abgedeckt haben, gehen wir heute einen Schritt weiter. Wir tauchen tiefer in die Bedeutung des Patientenkollektivs und die Rolle von Endpunkten ein. Warum ist es wichtig, wer an einer Studie teilnimmt? Wie beeinflussen dropouts die Aussagekraft der Ergebnisse? Und was genau sind klinische und Surrogatendpunkte?

In diesem Teil schauen wir uns an, wie man den Behandlungserfolg misst und warum das oft komplizierter ist, als es auf den ersten Blick scheint. Wir nehmen wieder die Beispielstudie „Nilotinib vs. Imatinib“ unter die Lupe und lernen dabei, worauf man achten sollte, um die Ergebnisse einer Studie korrekt einzuordnen. Am Ende dieses kleinen Leitfadens werdet ihr hoffentlich noch besser gerüstet sein, um klinische Studien kritisch und fundiert zu bewerten.

Das Patientenkollektiv und wer davon übrig bliebt

Bevor wir uns ansehen, wie der Behandlungserfolg überhaupt gemessen wird, müssen wir uns erst nochmal auf das Patientenkollektiv konzentrieren. Denn welche Teilnehmer:innen für eine Studie ausgewählt wurden hat einen großen Einfluss auf ihre Aussage.

Wie alt sind die Patient:innen, welches Geschlecht haben sie, wie weit ist ihre Erkrankung fortgeschritten, wurden sie vorher schon (unerfolgreich) behandelt, haben sie noch andere Erkrankungen? All das sind Fragen, die man stellen sollte, vor allem wenn man die Ergebnisse der Studie auf andere Patient:innen übertragen oder verallgemeinern möchte.

Außerdem lohnt es sich anzuschauen, wie viele Teilnehmer:innen bis zum Ende an der Studie teilgenommen haben. In den meisten Studien gibt es dropouts, Patient:innen, die aus welchem Grund auch immer nicht länger Teil der Studie sind. Das kann daran liegen, dass sie sich nicht an das Behandlungsschema gehalten haben und ausgeschlossen wurden, sie können zu starke Nebenwirkungen haben, sie können eine weitere Erkrankung bekommen haben, aufgrund derer sie ausgeschlossen werden mussten, oder sie können schlicht und ergreifend verstorben sein.

Wenn am Ende nur der Behandlungserfolg der Teilnehmer:innen ausgewertet wird, die bis zum Ende dabei waren, dann ignoriert das einen Teil der medizinischen Realität. Es halten sich nämlich auch „echte“ Patient:innen nicht an Behandlungspläne oder brechen eine Behandlung ab, wenn die Nebenwirkungen zu stark werden. Werden diese Fälle nicht berücksichtigt, wird wieder einmal der Behandlungserfolg überschätzt. Daher sollten Studien idealerweise eine intention-to-treat Analyse haben, bei der die Auswertung anhand aller Patient:innen erfolgt.

Unsere Beispielstudie „Nilotinib vs. Imatinib“ umfasst ursprünglich 846 Teilnehmer:innen, von denen 10 gar nicht erst behandelt wurden. Von den 836 behandelten Patient:innen haben 156 die Studie abgebrochen, meistens wegen starker Nebenwirkungen. Aber auch weil die Behandlung nicht angeschlagen hat oder die Teilnehmer:innen ihre Zustimmung widerufen haben. In der Analyse der Ergebnisse wurden zwar die 10 nicht behandelten Patient:innen nicht mit eingeschlossen, aber immerhin alle, die die Behandlung frühzeitig beendet haben.

Intention-to-treat Population von “Nilotinib vs. Imatinib”

Kurz zusammengefasst: Gerade um abschätzen zu können, für welche Menschen eine Behandlung vorteilhaft ist, lohnt sich ein Blick in das Patientenkollektiv der Studie. Und wenn man schonmal dabei ist, sollte man auch nachsehen, wie viele dropouts es gab und wie damit umgegangen wurde.

Die Bedeutung von Endpunkten bei klinischen Studien

Wenn eine klinische Studie durchgeführt wird, dann soll damit in der Regel ja gezeigt werden, wie gut die untersuchte Behandlung funktioniert. Dazu muss etwas gemessen werden, das belegt, ob die Behandlung erfolgreich war, und dieses etwas bezeichnet man als Endpunkt.

Letztendlich geht es bei den meisten Arzneimitteln darum, dass die Patient:innen durch ihre Anwendung wieder gesund werden, sich ihr Zustand nicht oder langsamer verschlechtert, sich ihr Befinden bessert usw. – das ist es, was die Patient:innen interessiert. Solche Kategorien können aber ganz schön schwierig zu messen sein, weshalb meist besser definierbare Endpunkte verwendet werden. Die vollständige Remission, also das komplette Verschwinden z.B. einer Krebserkrankung wäre ein Beispiel dafür. Ein ähnliches Beispiel ist das progressionsfreie Überleben, also Überleben ohne eine Verschlimmerung der Erkrankung. Diese beiden Endpunkte sind sogenannte klinische Endpunkte. Sie sind direkt an den Verlauf der Erkrankung geknüpft und für Patient:innen so erlebbar.

Im Gegensatz zu den klinischen Endpunkten stehen die Surrogatendpunkte. Sie sind nicht direkt für Patient:innen spürbar und dienen als Ersatz – als Surrogat – für klinische Endpunkte. Meistens sind das Biomarker, die nur mittelbar mit dem Verlauf der Erkrankung verknüpft sind. Ein solcher Biomarker ist beispielsweise das C-reaktive Protein, das bei Entzündungen in den Blutkreislauf abgegeben wird. Seine Konzentration korreliert also mit der Stärke der Entzündung und es dient deshalb als Entzündungsmarker.

Bei „Nilotinib vs. Imatinib“ wurden auch Biomarker als Surratendpunkte verwendet. Der primäre Endpunkt für die Wirksamkeit – der Endpunkt, der allein über die Wirksamkeit entscheidet – war die major molecular response nach zwölf Monaten. Im Prinzip ist das nichts anderes als eine knackige Bezeichnung für „Laborparameter, die das Anschlagen der Behandlung zeigen“. Das sagt uns jetzt noch nicht so viel; um diesen Endpunkt also beurteilen zu können, müssen wir uns etwas genauer anschauen, was dafür tatsächlich gemessen wurde.

Um die major molecular response zu messen, wurde bei den Patienten die Transkription von BCR-ABL bestimmt. BCR-ABL ist ein Gen, das durch eine Mutation der Chromosomen 9 und 22 entsteht. Es codiert für das BCR-ABL-Protein, das zur unkontrollierten Vermehrung der betroffenen Zelle führt und dadurch unter anderem die chronisch myeloische Leukämie auslöst. Da BCR-ABL damit kausal für die Entstehung der Tumorzellen verantwortlich ist, ist es als Surrogatendpunkt ziemlich gut geeignet. So ein kausaler Zusammenhang ist aber nicht bei allen Surrogatendpunkten vorhanden, was einer der Hauptgründe ist, weshalb man sie mit Vorsicht behandeln sollte.

Wie viele andere Studien auch hatte „Nilotinib vs. Imatinib“ sekundäre Endpunkte. Dazu gehört unter anderem die complete cytogenetic response. Das heißt, dass (quasi) keine Tumorzellen im Knochenmark mehr vorhanden sind – ein Surrogatendpunkt, der aber direkt mit dem Verlauf der Erkrankung und dem Überleben der Patient:innen verknüpft ist. Solche sekundären Endpunkte sind nicht dazu gedacht, alleine die Wirksamkeit der neuen Therapie zu beweisen. Stattdessen sollen sie mehr Details über die untersuchte Behandlung liefern.

Signifikant – aber auch relevant?

Da wir jetzt geklärt haben, was Endpunkte sind, können wir uns dem widmen, was uns wirklich interessiert, nämlich die Ergebnisse einer Studie. Dabei geht es vor allem um drei Dinge: Wurden die Endpunkte erreicht? Ist der Effekt statistisch signifikant? Und ist er dann auch klinisch relevant?

Statistische Tests werden dazu verwendet, zufällige Schwankungen im Ergebnis von echten, durch die Behandlung ausgelösten Effekten zu unterscheiden. Ist die Wahrscheinlichkeit, dass Verumgruppe (die eine neue Behandlung bekommt) und Kontrollgruppe gleich sind – und damit die Unterschiede zwischen den Ergebnissen nur Zufall – klein genug, bezeichnet man das als statistisch signifikant.

Einen extrem großen Einfluss auf das Ergebnis hat die Anzahl der Studienteilnehmer:innen. Je weniger Teilnehmer:innen, desto größer werden die zufälligen Abweichungen sein. Daher haben Studien mit einer sehr kleinen Teilnehmer:innenzahl auch weniger Aussagekraft. Im Gegenzug kann eine große Zahl an Teilnehmer:innen dafür sorgen, dass selbst sehr kleine positive Ergebnisse trotzdem signifikant sind. Und das ist auch genau der Grund, dass man sich die Effektstärke immer genauer ansehen sollte – selbst wenn der Effekt statistisch signifikant ist.

Zusätzlich dazu, dass der Effekt der neuen Behandlung signifikant sein sollte, muss er natürlich auch tatsächlich merkbar sein. Ein Effekt, der zwar unzweifelhaft vorhanden ist, aber so klein, dass er Patinet:innen keinen wirklichen Vorteil bringt, ist kein Grund, ein neues Arzneimittel zuzulassen. Gerade weil jedes Arzneimittel auch immer das Risiko für Nebenwirkungen birgt.

Ergebnis des primären Endpunkts major molecular response in “Nilotinib vs. Imatinib”

Unsere Beispielstudie „Nilotinib vs. Imatinib“ berichtet, dass 44% der Teilnehmer:innen mit Nilotinib (300 mg) den primären Endpunkt (die major molecular response) erreichen, im Gegensatz zu 22% in der Kontrollgruppe. Und zwar mit einem p-Wert kleiner als 0,001 – was einer Wahrscheinlichkeit von 99,9% entspricht, dass der Unterschied kein Zufall ist. Das ist schonmal ziemlich gut, aber ist der Effekt auch klinisch relevant? Tja, das ist noch so ein Problem mit Surrogatendpunkten. Es ist für Laien auf dem Gebiet (und hier bin ich genauso Laie wie die meisten anderen) ziemlich schwierig abzuschätzen, was dieser Effekt für die Patient:innen tatsächlich bedeutet.

Ein kleiner Test

Damit können wir die Sache im Prinzip abschließen. Natürlich gäbe es noch so viel mehr, was wir uns anschauen können, aber als erster Überblick soll das erst einmal genügen. Und als kleiner Test können wir versuchen, „Nilotinib vs. Imatinib“ anhand der beschriebenen Kriterien einzuordnen.

Im Großen und Ganzen ist „Nilotinib vs. Imatinib“ eine solide Studie mit guter Aussagekraft. Sie erfüllt die Bedingungen, die wir an kontrollierte randomisierte Studien stellen: Es gibt eine Kontrollgruppe, mit der die neue Behandlung verglichen werden kann, und die Zuteilung in die Gruppen erfolgt zufällig. Damit sind die größten Fehlerquellen so gut es geht minimiert. Eine andere häufige Ursache für einen möglichen Bias ist allerdings nicht beseitigt, denn die Studie ist nicht verblindet. Teilnehmer:innen wissen genauso wie die behandelnden und auswertenden Personen, in welcher Gruppe sie sind. Da nachgewiesen ist, dass dieses Wissen oft zur Überschätzung des Effekts einer neuen Behandlung führt, müssen wir hier definitiv vorsichtig sein!

Die Wirksamkeit der Behandlung wird zwar anhand von Surrogatendpunkten bewertet, die prinzipiell weniger aussagekräftig sind als klinische Endpunkte. Allerdings stehen die gemessenen Endpunkte in einem direkten kausalen Zusammenhang zur Erkrankung, was trotzdem eine gute Aussagekraft ohne allzu viele Annahmen ermöglicht. In der Behandlungsgruppe erreichen doppelt so viele Patient:innen den primären Endpunkt der major molecular response. Da diese so direkt mit dem Verlauf der Erkrankung verbunden ist, können wir annehmen, dass das auch zu einer spürbaren Verbesserung für die Patient:innen führt. Die Ergebnisse wurden als intention-to-treat-Analyse ausgewertet. Damit wurden also auch alle dropouts, bei denen die Behandlung vorzeitig beendet wurde, mit in die Auswertung einbezogen.

Die Patient:innen in der Studie haben ihre CML-Diagnose maximal 6 Monate früher erhalten. Sie durften vorher fast keine andere Behandlung erhalten haben, nur eine bestimmte Schwere der Erkrankung aufweisen, keine eingeschränkte Herzfunktion haben und viele andere Arzneimittel nicht gleichzeitig einnehmen. Das schränkt natürlich ziemlich ein, und um die Ergebnisse auf eine Patient:innengruppen zu übertragen, wären strenggenommen mehr Studien nötig.

Aber mehr Studien sind sowieso nötig, denn „eine Studie ist keine Studie“, wie man so schön sagt. Die beste Aussagekraft haben eine Vielzahl an Studien, die zu ähnlichen Ergebnissen kommen (und dann z.B. in einer sogenannten Metaanalyse zusammengefasst werden).

Ich hoffe, ihr habt jetzt einige Werkzeuge zur Interpretation von klinischen Studien mehr in eurem metaphorischen Werkzeugkasten. Wenn ihr euch weiter informieren wollt, nutzt doch gerne die verlinkte Literatur hier und im ersten Teil als Ausgangspunkt. Und wenn ihr hier keinen neuen Blogpost verpassen wollt, abonniert am besten meinen Newsletter. Ansonsten empfehlt diesen kleinen Leitfaden zur Interpretation klinischer Studien auch gerne weiter.

Wie man klinische Studien liest, Teil 1 – Gute Studien, Schlechte Studien

Klinische Studien sind eines der wichtigsten Werkzeuge der evidenzbasierten Medizin. Stellt euch einfach mal vor, ihr habt ein revolutionäres neues Arzneimittel entwickelt. Ihr seid euch sicher, dass es extrem wirksam und super verträglich ist. Aber wie könnt ihr andere davon überzeugen? Na klar, ihr müsst es testen, und zwar auf eine Art und Weise, die möglichst alle Fehler ausschließt, die das Ergebnis eures Tests verfälschen könnten. Und genau dafür sind klinische Studien da.

Das Schöne daran ist, dass nicht nur ihr damit die Welt von eurem revolutionären neuen Arzneimittel überzeugen könnt. Wenn ihr wisst, wie man solche Studien liest und interpretiert könnt ihr auch beurteilen, wie gut alle anderen Behandlungen sind und ob nicht doch jemand übertrieben hat, was die Wirksamkeit einer (Arznei-)Therapie angeht.

Kurzum: Das Wissen über klinische Studien ist die Tür zur evidenzbasierten Medizin und die beste Möglichkeit, Wirksames von Unwirksamem zu unterschieden. Daher möchte ich euch in dieser zweiteiligen Reihe die nötigen Werkzeuge an die Hand geben, damit ihr klinische Studien lesen und beurteilen könnt. Ich konzentriere mich dabei zwar auf Studien über Arzneimittel, aber grundsätzlich könnt ihr die gleichen Prinzipien auch auf andere Behandlungsmethoden übertragen.

Klinische Studie oder nicht?

Wir sollten damit anfangen, was klinische Studien überhaupt sind – und was nicht. Klinische Studien sind experimentelle Studien, um die Wirksamkeit von Arzneimitteln zu kontrollieren. Epidemiologische Studien, in denen die Forschung nicht in einem experimentellen Setting stattfindet sondern Gruppen von Menschen ausschließlich beobachtet werden, sind damit keine klinischen Studien.

Außerdem finden klinische Studien ausschließlich an Menschen statt. Tierversuche, Studien in Zellen oder Organoiden oder sogenannte ex vivo Versuche mit isolierten Organen gehören hingegen zu den präklinischen Studien. Solche präklinischen Studien sind aber auch ziemlich wichtig und liefern beispielsweise toxikologische Daten, um zu entscheiden, ob eine Studie mit menschlichen Proband:innen überhaupt möglich ist.

Die allermeisten klinischen Studien werden für die Zulassung neuer Arzneimittel durchgeführt. Und solche Zulassungsstudien unterschieden sich sehr, je nachdem in welcher Phase sie sind: Phase I-Studien werden an einer kleinen Zahl gesunder Proband:innen durchgeführt, vor allem um die Sicherheit des Arzneimittels nachzuweisen. In Phase II-Studien kommen nun erstmals erkrankte Patient:innen zum Einsatz, aber wieder nur relativ wenige. Hier wird zum ersten Mal die Wirksamkeit in Menschen untersucht, wenn auch nur auf einem sehr grundlegenden Level, um zum Beispiel eine angemessene Dosis zu finden. Und dann kommen schon die Studien der Phase III, die mit deutlich mehr Patient:innen durchgeführt werden und einen Wirksamkeitsnachweis für die Zulassung eines Arzneimittels erbringen können.

Es gibt außerdem noch Phase IV-Studien, die typischerweise nach der Zulassung gemacht werden, aber die lassen wir mal beiseite. Auf jeden Fall seht ihr, dass „klinische Studie“ ein ziemlich weiter Begriff ist, der ganz unterschiedliche Ziele und Methoden einschließt.

Lasst uns daher tiefer eintauchen in die Welt der klinischen Studien und herausfinden, wie sie funktionieren und was eine gute von einer schlechten Studie unterscheidet.

Die Kontrollgruppe

Es gibt unzählige verschiedene Möglichkeiten des Studiendesigns, die wir uns hier unmöglich alle anschauen können. Deshalb konzentrieren wir uns auf die randomisierten kontrollierten Studien (kurz RCT), die quasi den Goldstandard darstellen. Und damit das ganze etwas weniger Abstrakt ist, schauen wir uns ein konkretes Beispiel an: „Nilotinib versus Imatinib for Newly Diagnosed Chronic Myeloid Leukemia“ von Saglio et al. aus dem Jahr 2010.

Nur ganz kurz, damit ihr auch wisst, worum es dabei geht: Nilotinib und Imatinib sind Arzneistoffe aus der Gruppe der Tyrosinkinase-Inhibitoren, die bei vielen Tumorerkrankungen verwendet werden. Eine davon ist die chronisch myeloische Leukämie, eine Tumorerkrankung der blutbildenden Stammzellen.

Nach diesem Einschub können wir uns jetzt mit der ersten namensgebenden Eigenschaft der randomisierten kontrollierten Studien beschäftigen, der Kontrollgruppe. Denn um die Wirkung eines Stoffes zu beurteilen, muss man ihn mit etwas vergleichen können. Im Fall unserer Studie hier steckt die Kontrollgruppe auch schon im Titel – Nilotinib versus Imatinib. Das bedeutet also, dass Nilotinib der neue Wirkstoff ist, der untersucht werden soll, während es sich bei Imatinib um die Kontrolle handelt.

Woran vermutlich die meisten Menschen bei einer Kontrollgruppe denken sind Placebokontrollen. Sie sind dazu gedacht, dass Kontexteffekte wie der Placeboeffekt das Ergebnis der Studie nicht verfälschen. Allerdings können nicht alle Studien eine Placebokontrolle verwenden. Stellt euch doch mal vor, Patient:innen mit einer potentiell tödlichen Krankheit würden, nur weil sie in der Kontrollgruppe sind, ein unwirksames Placebo bekommen statt einer Behandlung. Deshalb wird als Kontrollgruppe oft eine bereits etablierte Behandlung verwendet – so auch in unserem Beispiel mit Imatinib.

In den meisten Fällen soll dabei gezeigt werden, dass die neue Behandlung der Kontrolle überlegen ist, z.B. dass die Behandlung Nilotinib besser ist als mit Imatinib (was genau mit besser gemeint ist, ist auch sehr wichtig, und dem widmen wir uns ausführlich in Teil 2). Es gibt auch Studien, die eine Nicht-Unterlegenheit nachweisen wollen, also dass die neue Behandlung mindestens genauso gut ist wie die Kontrolle. Das ist zum Beispiel der Fall, wenn die Behandlung vereinfacht oder verkürzt werden soll. Solche Studien sind allerdings seltener – und bei einem Placebo als Kontrolle wird natürlich immer die Überlegenheit untersucht.

Wenn ihr also eine klinische Studie vor euch liegen habt, dann schaut als erstes, ob es eine Kontrollgruppe gibt – und wenn ja, welche. Denn ohne Kontrolle kann niemals wirklich nachgewiesen werden, ob der beobachtete Effekt (inklusive Nebenwirkungen) tatsächlich von der neuen Behandlung stammt und nicht durch den Placeboeffekt, eine natürliche Besserung der Erkrankung oder eine andere Quelle verursacht wird. Außerdem sollte die Kontrolle zur Behandlung passen. Eine Studie, bei der eine Gruppe eine Infusion bekommt und die andere nur Tabletten schlucken muss wäre zum Beispiel nicht sauber gemacht.

Der Zufall entscheidet

Der zweite entscheidende Faktor, der eine Studie zur randomisierten kontrollierten Studie macht, ist die Randomisierung. Das bedeutet, dass die Teilnehmer:innen zufällig auf die Kontrollgruppe und die Verumgruppe (so nennt man die Gruppe auch, welche die neue Behandlung bekommt) verteilt werden.

Ohne diese zufällige Aufteilung könnten die Forschenden ja diejenigen Patient:innen, denen es sowieso besser geht, der Verumgruppe zuteilen und jene, denen es schlechter geht, der Kontrollgruppe. Und Oh Wunder – am Ende geht es der Gruppe mit der neuen Behandlung insgesamt besser. Aber niemand kann wissen, ob das tatsächlich an der Behandlung liegt oder nicht eher an der fehlerhaften Aufteilung der Teilnehmer:innen.

Auch in unserer Beispielstudie wurde randomisiert. Die Patient:innen wurden zufällig in zwei Verumgruppen mit unterschiedlicher Dosis und eine Kontrollgruppe aufgeteilt.

Dass und wie randomisiert wurde sollte also immer im Methodenteil einer Studie zu finden sein, selbst wenn euch die Randomisierungsmethode an sich nichts sagt.

Wer ist alles verblindet

Ein weiteres Qualitätsmerkmal für klinische Studien ist die Verblindung. Dabei geht es darum, dass die an der Studie beteiligten Personen nicht wissen, wer in welcher Gruppe ist. Ihr habt bestimmt bemerkt, dass ich „an der Studie beteiligte Personen“ geschrieben habe und nicht Teilnehmer:innen. Denn idealerweise wissen nicht nur die Patient:innen nicht, in welcher Gruppe sie sind, sondern auch die behandelnden und die auswertenden Personen. Das bezeichnet man dann als einfache (nur Teilnehmer:innen), doppelte (Teilnehmer:innen + behandelnde Personen) oder dreifache Verblindung (alle).

Bei den Teilnehmer:innen geht es wieder um Kontexteffekte: Wenn Patient:innen wissen, dass sie nur ein Placebo bekommen, könnte der Placeboeffekt natürlich deutlich schwächer ausgeprägt sein. Und auch wenn sie wissen, dass sie Teil der Kontrollgruppe mit einer Standardbehandlung sind, kann sich das auf ihre Überzeugung auswirken, wirklich die wirksamste Therapie zu bekommen (oder sogar andersherum, wenn sie dem neuen Arzneistoff eher skeptisch gegenüberstehen).

Die Verblindung von behandelnden und auswertenden Personen soll Kontexteffekte und Bestätigungsfehler – confirmation bias – minimieren. Schließlich wünschen sich die Forscher:innen oft, dass ihre neue Behandlung auch funktioniert und treten vielleicht bei der Behandlung mit dem neuen Arzneimittel zuversichtlicher oder möglicherweise auch nervöser auf. Das kann wiederum Einfluss auf die Patient:innen haben. Andererseits könnten die Forscher:innen durch diesen Wunsch (unbewusst) eher Erkenntnisse berücksichtigen, die ihre Erwartungen bestärken. Aus diesen Gründen sollten auch sie verblindet sein.

Wenn wir uns jetzt wieder „Nilotinib vs. Imatinib“ ansehen, dann lesen wir nichts von einer Verblindung. Stattdessen steht dort open label, was im Prinzip nur bedeutet, dass keine Verblindung durchgeführt wurde und alle Teilnehmer:innen und Forscher:innen wussten, wer in welcher Gruppe ist. Das ist noch kein Grund, die Studie für nutzlos zu erklären, aber man sollte sich dieser Tatsache schon bewusst sein. Denn Studien ohne Verblindung überschätzen den Effekt einer Behandlung regelmäßig. Es wäre also nicht unvernünftig zu denken, dass auch der Behandlungserfolg bei „Nilotinib vs. Imatinib“ als etwas zu hoch eingeschätzt wird.

Außerdem wäre es noch ideal, wenn eine Studie, die verblindet durchgeführt wurde, auch über den Erfolg der Verblindung berichtet – also z.B. ob nicht doch einige Teilnehmer:innen herausgefunden haben, in welcher Gruppe sie sind.

Die Verblindung ist somit auch ein wichtiger Faktor, um die Qualität von klinischen Studien einzuschätzen, sowohl ob überhaupt verblindet wurde als auch wer – nur die Patient:innen oder auch die durchführenden Personen.

to be continued…

Eine zufällige Aufteilung in Gruppen, die jeweils eine Kontrolle oder den untersuchten Arzneistoff erhalten, macht also die randomisierten kontrollierten Studien aus. Sie sind die beste Methode um sicherzugehen, dass in der Studie aufgetretene Effekte – positive wie negative – tatsächlich von der Behandlung stammen und um gleichzeitig möglichst viele Fehlerquellen auszuschließen.

Das sind zwar die grundlegenden Aspekte des Studiendesigns, aber es gibt noch einiges mehr zu beachten, um eine Studie zu beurteilen. Zum Beispiel, wie viele und welche Patient:innen teilgenommen haben, wie der Erfolg der Behandlung überhaupt gemessen wurde und wie groß dieser Effekt dann war. Darum geht es dann aber im zweiten Teil.

Falls ihr keinen Beitrag mehr verpassen wollt, abonniert doch gerne meinen Email-Newsletter. Und falls euch dieser Post gefallen hat, teilt ihn gerne mit Menschen, die sich auch dafür interessieren.

AlphaFold – Was kann die “Wunder-KI” wirklich?

Vor einigen Tagen wurde AlphaFold 3 veröffentlicht, ein KI-Werkzeug zur Vorhersage von Proteinstrukturen. Die Zeit schreibt dazu „Eine KI die wirklich hilft“ oder „KI sagt Struktur aller Moleküle des Lebens voraus“, der Standard nennt es die “Wunder-KI“. Auch in der Wissenschaft ist das Lob für die Fähigkeiten von AlphaFold groß, es gibt jedoch auch einige skeptische Stimmen.

Aber was ist AlphaFold eigentlich genau, was bringt es und was kann es wirklich? Darauf werde ich in diesem Text einen kritischen Blick werfen.

Wieso sind Proteinstrukturen so wichtig?

Eins erstmal vorneweg: AlphaFold und andere KIs zur Vorhersage von Proteinstrukturen sind extrem beeindruckend. Die dreidimensionale Struktur von Proteinen ist kompliziert, und eine Möglichkeit, sie verlässlich vorherzusagen, war lange ein unerfüllbarer Traum. Aber wie verlässlich sind diese KIs wirklich? Wie funktioniert das? Und vor allem, für was brauchen wir diese Proteinstrukturen überhaupt?

Beschäftigen wir uns zuerst mit der letzten dieser Fragen: Wofür brauchen wir die Struktur von Proteinen? Im Prinzip ist es ganz einfach, denn die Struktur bestimmt bei Proteinen zum Großteil die Funktion.

Proteine bestehen aus Aminosäuren, die eine hinter der anderen aufgereiht sind. Davon gibt es – mit ein paar Ausnahmen – 20 Stück. Würden die alle nur in einer langen Kette aneinander hängen, wären die möglichen Fähigkeiten von Proteinen sehr begrenzt. Wenn wir uns aber echte Proteine anschauen, können die jedoch sehr, sehr viel. Sie können als Enzyme biochemische Reaktionen katalysieren, sie können als Rezeptoren Botenstoffe erkennen, sie können als Transporter Stoffe über Zellmembranen transportieren und sie können Festigkeit und Halt geben – denkt da nur an eure Nägel.

Diese Fähigkeiten von Proteinen entstehen dadurch, dass ihre 3D-Struktur die richtigen Aminosäuren an die richtige Stelle bringt. Dort können sie dann miteinander und ihrer Umgebung interagieren und beispielsweise eine Bindetasche für andere Moleküle bilden.

Wenn wir also verstehen wollen, wie Proteine funktionieren – und das müssen wir vor allem auch, weil darauf die meisten unserer Arzneimittel basieren – müssen wir ihre Struktur verstehen.

Was ist AlphaFold 3?

Kommen wir jetzt zum „Star“ dieses Textes – AlphaFold. AlphaFold ist ein KI-Werkzeug zur a priori Vorhersage von Proteinstrukturen (seit AlphaFold 3 werden aber auch andere Biomoleküle wie z.B. DNA besser unterstützt). Aus der Aminosäure-Sequenz eines beliebigen Proteins kann also dessen Struktur vorhergesagt werden.

Überlagerung einer experimentellen Struktur (blau) des Proteins Albumin und Vorhersage von AlphaFold3 (gelb). Vorhersage und experimentelle Struktur stimmen ziemlich gut überein. (Struktur: PDB 1AO6, 10.1093/protein/12.6.439)

Diese Struktur kann dann zum Beispiel zur Entwicklung neuer Arzneistoffe verwendet werden. Denn gerade dafür braucht man oft ein genaues Bild davon, wie der Wirkstoff an das Protein bindet und mit welchen Aminosäuren er dort interagiert. Und man muss wirklich zugeben, dass AlphaFold erstaunlich gut ist. Wie schon gesagt ist die dreidimensionale Struktur von Proteinen eine komplizierte Angelegenheit und bei vielen Proteinen stimmen die Vorhersage und die experimentell bestimmte Struktur sehr gut überein. Allerdings ist AlphaFold lange nicht perfekt, auch nicht seit AlphaFold 3. Genauso wie es bestimmte Stärken hat, hat es auch Schwächen, die meiner Einschätzung nach sehr schwierig zu überwinden sein werden. Vieles davon wird in diesem Paper von 2023 schön zusammengefasst.

Unerwartetes entdecken

Einer der Hauptgründe, weshalb AlphaFold so gut ist, ist die Qualität der Trainingsdaten. Wie ChatGPT zum Beispiel ist AlphaFold auch ein sogenanntes large language model, also eigentlich ein Sprachmodell. Nur ist die Sprache, die AlphaFold spricht, eben keine Menschliche, sondern die „Sprache“ der Aminosäuren. Aber genau wie bei ChatGPT, das mit einer Unzahl von Texten trainiert wurde, braucht auch AlphaFold Trainingsdaten. Und hier hatten die Entwickler:innen enormes Glück, denn es existieren sehr viele, sehr gute experimentell bestimmte Proteinstrukturen, die frei zugänglich sind. Ohne diese Daten, die in Jahrzehnten strukturbiologischer Arbeit gewonnen wurden, wäre AlphaFold nicht möglich gewesen.

Das führt allerdings auch dazu, dass AlphaFold Schwierigkeiten damit hat, Unbekanntes oder Unerwartetes zu entdecken – es funktioniert ja auch durch den Vergleich mit bekannten Strukturen. Eine der großen Stärken experimenteller Methoden, solche unerwarteten Strukturmotive, Cofaktoren, Ionen oder Modifikationen zu entdecken ist damit eine der Schwächen AlphaFolds. Und die eigentlich unerwarteten Dinge sind eben oftmals die interessantesten.

Flexible Proteine sind ein Problem

Besonders gut sind die Vorhersagen von AlphaFold bei Proteinen (oder Teilen von Proteinen), die eine sehr stabile und gut definierte Struktur haben – so wie Helices und β-Faltblätter, für diejenigen von euch, die sich auskennen. Aber 30 % aller (eukaryotischer) Proteine besitzen Regionen, die man als intrinsically disordered bezeichnet und die im Prinzip gar keine festgelegte Struktur besitzen. Einige Protein sind sogar komplett intrinsically disordered und besitzen kaum stabile Strukturmotive. Solche flexiblen Proteine und Regionen bereiten der Strukturbiologie seit jeher Probleme, sei es experimentell oder via KI.

Vorhersage der Struktur des M2-Acetylcholinrezeptors. Die Farben stellen die Zuverlässigkeit der Vorhersage dar: blau – sehr hoch, hellblau – hoch, gelb – niedrig, orange – sehr niedrig. Die Zuverlässigkeit ist vor allem in gut strukturierten Bereichen hoch, während sie in flexiblen Bereichen niedrig bis sehr niedrig ist.

Es ist aber auch möglich, dass sich aus einer flexiblen Region kurzzeitig eine stabile Konformation (so werden definierte Proteinstrukturen auch bezeichnet) ergibt. Solche induzierten Konformationen entstehen häufig durch Wechselwirkungen mit z.B. anderen Proteinen. AlphaFold trifft seine Vorhersagen rein aus der Aminosäuresequenz eines Proteins und „weiß“ nichts über dessen physikochemische Eigenschaften. Es kann also auch nicht vorhersagen, welche Auswirkungen solche Wechselwirkungen auf die Struktur eines Proteins haben und erkennt die induzierte Konformation möglicherweise nicht.

Proteine sind ständig in Bewegung

Worauf physikochemische Wechselwirkungen noch einen großen Einfluss haben ist die Bewegung – die Dynamik – eines Proteins. AlphaFold liefert statische Bilder einer Proteinstruktur, aber eigentlich sind Proteine ständig in Bewegung und wechseln zwischen unterschiedlichen Konformationen hin und her. Das ist zum Beispiel der Fall, wenn ein Signalmolekül an ein Rezeptorprotein bindet; um dieses Signal weiterzuleiten muss der Rezeptor seine Struktur etwas verändern. Solche Unterschiede zwischen aktiver und inaktiver Form eines Proteins stellen für die Vorhersage der Struktur immer noch ein Problem dar und häufig erhält man eine Mischung aus beiden Möglichkeiten.

Überlagerung eines Proteinkomplex aus Vasopressin-Rezeptor 2 und beta-Arrestin 1 – beide Proteine sollten in einer aktiven Konformation sein. Die experimentell bestimmte Rezeptor-Struktur ist blau, die Vorhersage von AlphaFold 3 ist orange. Beide Arrestin-Strukturen sind grau. (Struktur: PDB 7R0C, 10.1126/sciadv.abo7761)

Auch andere Prozesse können dafür sorgen, dass Proteine ihre Struktur verändern. Posttranslationale Modifikationen – das „Dekorieren“ mit bestimmten chemischen Gruppen, nachdem die Aminosäuresequenz fertig ist gehört dazu, oder auch der pH-Wert. In bestimmten Bereichen einer Zelle herrschen andere pH-Werte und beeinflussen das Verhalten von Proteinen. Das kann AlphaFold jedoch auch nicht in jede seiner Vorhersage mit einkalkulieren.

(Not So) Open Science

Eine andere Sache, die ich an AlphaFold bedenklich finde, hat nichts mit dem Programm an sich zu tun, sondern mit den Unternehmen, die dahinter stehen. Wie Retraction Watch berichtet, haben Google und dessen Tochterunternehmen Deep Mind den Code (und die Trainingsdaten) von AlphaFold 3 nicht öffentlich gemacht – nicht einmal den Reviewern des Papers, das über die neue AlphaFold-Version berichtet. Es gibt zwar den AlphaFold-Server, den man für Simulationen mit AlphaFold 3 nutzen kann, allerdings nur für eine begrenzte Zahl an  Aufträgen pro Tag und nicht für alle Vorhersagen, die es kann – oder können sollte.

Das macht es nicht nur unmöglich, die Angaben über die Leistungsfähigkeit des Programms genau zu überprüfen, sondern widerspricht auch den Grundsätzen guter Wissenschaft. Daten und Code sollten für die Wissenschafts-Community zugänglich sein, um die Forschung möglichst weit voran zu bringen und Ergebnisse überprüf- und replizierbar zu machen.

Fazit: Was kann AlphaFold?

Das Ganze liest sich jetzt möglicherweise, als wäre ich kein allzu großer Fan von KI-Werkzeugen zur Vorhersage von Proteinstrukturen. Aber dem ist eigentlich nicht so – man muss sie nur als das betrachten, was sie sind. Nämlich Werkzeuge, mit ihren eigenen Einsatzgebieten, Stärken, Schwächen und Limitationen.

Ich wollte mit diesem Text einen eher kritischen Blick auf AlphaFold und Co. werfen, vor allem nach der extrem lobenden Berichterstattung der letzten Tage. Denn so gut AlphaFold auch ist – und es ist sehr gut – wird es nicht die experimentelle Strukturbiologie überflüssig machen oder uns im Rekordtempo einen neuen Arzneistoff nach dem anderen entwickeln lassen. Tatsächlich funktionieren AlphaFold-Vorhersagen für die Entwicklung neuer Arzneistoffe schlechter als solche, die auf experimentellen Daten basieren.

Stattdessen muss es sinnvoll in Arbeitsabläufe eingebunden werden. Seine Geschwindigkeit und Einfachheit muss verwendet werden, wenn sich aufwändige Experimente nicht lohnen. Experimente hingegen sind immer noch nötig, um neue und unerwartete Dinge zu entdecken – und um Vorhersagen überprüfen zu können. Aber richtig angewendet sind AlphaFold und Co. auf jeden Fall Werkzeuge, die in den Werkzeugkasten der Wissenschaft gehören und die anderen Werkzeuge darin gut ergänzen können.

Wenn euch dieser Text gefallen hast, abonniert doch gerne meinen Newsletter, um keinen neuen Beitrag mehr zu verpassen!

Die verborgenen Botenstoffe des Gehirns: Neuropeptide

Meine Biomoleküle dieses Monats sind Botenstoffe des Gehirns, die zwar sehr unterschiedlich sein können, aber trotzdem alle einen großen Einfluss auf die Kommunikation zwischen Nervenzellen haben. Sie sind an den grundlegendsten Funktionen des Körpers beteiligt und Störungen in diesem System können mitunter zur Entstehung vieler Erkrankungen führen: die Neuropeptide.

Über einhundert Neuropeptide

Was Neuropeptide genau sind, ist aber gar nicht so einfach zu beantworten. Denn im Vergleich zu anderen Signalmolekülen im Gehirn gibt es von ihnen deutlich mehr und auch deutlich unterschiedlichere. Der – sehr passend benannte – Text What Are Neuropetides? beschreibt sie so: „Ein Neuropeptid ist ein kleiner, proteinartiger Stoff, der von Nervenzellen produziert und gesteuert freigesetzt wird, und auf neuronale Strukturen wirkt“.

In diesem Satz steckt eine ganze Menge drin, aber bevor wir ihn genauer unter die Lupe nehmen, schauen wir uns gemeinsam einige Beispiele für Neuropeptide an: Da wären zum Beispiel die endogenen Opioide, die unter anderem bei der Empfindung von Schmerzen oder Stress wichtig sind, das als „Kuschelhormon“ bekannte Oxytocin, Vasopressin, das den Wasserhaushalt des Körpers und damit auch den Blutdruck steuert, oder ACTH, das den Cortisol-Spiegel im Blut reguliert. Außerdem gibt es noch  über einhundert andere Neuropeptide, die alle unterschiedlichste Funktionen übernehmen. Um zu erfahren, was diese mehr als einhundert Stoffe mit ihren verschiedenen Funktionen gemeinsam haben, müssen wir uns der obenstehenden Definition widmen.

Neuropeptid oder Hormon – oder beides?

„Kleiner, proteinartiger Stoff“ ist relativ selbsterklärend. Neuropeptide sind – offensichtlicherweise – Peptide, bestehen also wie Proteine auch aus Aminosäuren. Und klein sind sie, weil sie nur aus wenigen Aminosäuren bestehen.

Sie stammen aus Nervenzellen und werden von ihnen erst auf ein bestimmtes Signal hin freigesetzt. Und wenn sie freigesetzt wurden, binden sie wieder an Rezeptoren in der Membran einer Nervenzelle und beeinflussen dort die Signalweiterleitung.

„Aber“, werden manche von euch jetzt sagen, „du hast gesagt, dass Oxytocin oder Vasopressin Neuropeptide sind. Sind das nicht eigentlich Hormone?“ Und damit hättet ihr zwar recht, ich hätte allerdings ebenso recht. Denn ein Stoff kann gleichzeitig ein Hormon und ein Neuropeptid sein: Hormone sind Substanzen, die von einem Organ freigesetzt werden, über den Blutkreislauf weitertransprotiert werden, und dann auf ein anderes Organ wirken. Damit können einige Neuropeptide ohne Probleme auch Hormone sein. Und nicht nur das: Manche Stoffe, die von Nervenzellen freigesetzt werden – und damit als Neuropeptide gelten – können auch von anderen Zellen abgegeben werden und sind in diesem Fall dann keine Neuropeptide, sondern „nur“ Peptidhormone. Etwas verwirrend, ich weiß, aber letztendlich bedeutet das nur, dass ein und der selbe Stoff gleichzeitig ein Neuropeptid und ein Hormon sein kann, oder er kann zwar beides sein, aber jeweils in anderen Kontexten.

Ob das jetzt so wichtig ist? Da bin ich mir nicht so sicher. Denn schließlich sind „Neuropeptid“ und „Hormon“ nur menschengemachte Kategorien, um die Realität zu beschreiben, und in welche Kategorie wir eine Substanz stecken, ändert ihre Realität nicht.

Neuropetide steuern Hunger und Sättigung

Aber um weniger endlich weniger theoretisch zu werden, und uns Neuropeptide „in Aktion“ anzuschauen, betrachten wir zwei Substanzen, die an der Entstehung von Adipositas beteiligt sein können: α-MSH und NPY.

Beide sind unter anderem an der Regulation von Hunger- und Sättigungsgefühlen beteiligt und sind daher im Fokus der Adipositas-Forschung. Auch wenn ich mich jetzt auch auf diese Aufgabe der beiden Neuropeptide konzentrieren werde, sind sie ebenfalls wichtig für viele weitere Körperfunktionen.

α-MSH entsteht aus dem Vorläuferpeptid POMC. Denn je nachdem, wie POMC gespalten wird, können verschiedene Neuropetide daraus entstehen. In manchen Nervenzellen werden daraus die Melanocortine α-MSH, β-MSH oder γ-MSH gebildet, in anderen wiederum endogene Opioide oder ACTH, das die Synthese von Cortisol steuert. So ein Vorläuferpeptid, aus dem verschiedene Produkte entstehen können, ist sehr typisch für die Neuropeptide.

Wenn α-MSH dann gebildet ist – normalerweise, wenn wir etwas gegessen haben – kann es Rezeptoren an der Oberfläche anderer Nervenzellen aktivieren und dort seinen Effekt vermitteln:  der Hunger lässt nach und ein Sättigungsgefühl stellt sich ein.

Bei Menschen, die z.B. an genetisch bedingtem POMC-Mangel leiden, funktioniert dieser Regulationsmechanismus nicht. Der Hunger lässt trotz Essens nicht nach, und die Patient:innen entwickeln schweres Übergewicht. Daher gibt es einen Arzneistoff, Setmelanotid, der genauso wie α-MSH die entsprechenden Rezeptoren aktivieren und die Sättigung auslösen kann.

Struktur von NPY (Bild: Nevit Dilmen, Struktur: PDB 1RON)

NPY hat die entgegengesetzte Rolle: Die Freisetzung von NPY induziert Hunger, und auch Mutationen im NPY-System sind mit der Entstehung von Adipositas assoziiert. NPY wird genauso wie α-MSH aus einem Vorläuferpeptid gebildet, dem Prepro-NPY. Hier können daraus allerdings nicht so viele weitere Stoffe entstehen wie aus POMC, sondern nur ein weiterer, das C-flanking peptide, über das es nur sehr wenig Literatur gibt.

Und natürlich, wie das in der Biologie meistens ist, hängen die Signalwege von α-MSH und NPY auch zusammen. Zum Beispiel kann das gleiche Signal, das die Freisetzung von α-MSH auslöst, die Ausschüttung von NPY hemmen.

Das nur als kleines Beispiel für die Bedeutung von Neuropeptiden bei der Steuerung von so grundlegenden Dingen wie Hunger und Sättigung. Aber auf ähnliche Weise sind noch dutzende andere Neuropeptide an genauso grundlegenden Prozessen beteiligt.

Wenn euch dieser Text über die Neuropeptide gefallen hat, dann abonniert doch gerne meinen Newsletter, um keinen neuen Blogpost mehr zu verpassen oder lest meinen Beitrag über die vorherigen Biomoleküle des Monats, die nicht codierenden RNAs.

Die Jagd nach neuen Antibiotika – Antibiotika-Resistenzen, Teil 2

Immer mehr Antibiotika-resistente Bakterienstämme stellen die Medizin vor eine große Herausforderung. Denn bei vielen Infektionen, die eigentlich mal einfach zu behandeln waren, versagen die gängigen Antibiotika. Neue antibakterielle Arzneimittel werden so dringend benötigt wie selten zuvor, aber dennoch läuft die Entwicklung neuer Antibiotika sehr langsam. Wieso das so ist, und welche Strategien vielleicht trotzdem zum Erfolg führen könnten, lest ihr hier.

Enges vs. breites Spektrum

Wie ich in Teil 1 beschrieben habe, ist die Entstehung von immer mehr Antibiotika-resistenten Bakterienstämmen im Prinzip unvermeidbar, solange wir Antibiotika verwenden; wenn ihr wissen wollt wieso, dann lest Teil 1 doch gerne zuerst.

Die Tatsache, dass die Zahl der Resistenzen zunimmt, bedeutet natürlich auch, dass wir neue Behandlungsoptionen brauchen. Wie die Aussehen könnten, und welche Probleme es dabei gibt, beschreiben zum Beispiel zwei spannende Reviews von Cook und Wright und Bergkessel et al. Neue Antibiotika sind aber gar nicht so einfach zu finden: Antibiotika müssen oft in hohen Dosen eingesetzt werden und dürfen daher auf keinen Fall zu toxisch sein. Außerdem müssen sie anderen physikochemischen Eigenschaften entsprechen als „normale“ Arzneistoffe, weil sie ja nicht nur von Menschen aufgenommen werden und in ihnen wirken sollen, sondern auch zusätzlich in die Bakterien gelangen und dort wirken müssen. Vor allem gibt es aber sehr viele unterschiedliche Bakterien und je breiter das Wirkspektrum sein soll – also gegen wie viele verschiedene Bakterien ein Stoff wirkt – desto schwieriger wird es.

Breitband-Antibiotika haben einen entscheidenden Vorteil: Sie brauchen viel weniger Diagnostik. Während vor dem Einsatz von Stoffen mit engem Spektrum erst die Erreger identifiziert werden müssen, können Breitband-Antibiotika ohne diesen Nachweis verwendet werden. Und auch wenn nicht unnötigerweise breit therapiert werden sollte, fehlt für einen Erregernachweis oft die Zeit (häufig beruht der Nachweis noch auf der Anzucht der Bakterien, was einige Tage dauern kann). Allerdings sind neue Breitband-Antibiotika viel schwieriger zu finden als solche mit engem Spektrum. Daher könnte die Zukunft der antibiotischen Therapie aus mehr Stoffen mit engem Spektrum in Kombination mit schnelleren (point of care) Nachweisen der Erreger bestehen.

Neue Antibiotika aus der Natur

Woher sollen die neuen Antibiotika kommen? – Und ich meine damit wirklich neue Antibiotika, mit neuen Zielstrukturen und Wirkmechanismen, statt Derivaten bereits bekannter Stoffe. Eine Möglichkeit wäre der Ort, von dem auch viele der etablierten Antibiotika kommen: Aus der Natur. Denn tatsächlich produzieren viele Mikroorganismen antibakterielle Stoffe und die meisten Antibiotika sind entweder direkt mikrobiellen Ursprungs oder davon abgeleitet.

Streptomyces, eine Gattung der Actinomyceten

Bei den Antibiotikaproduzenten stechen vor allem die Actinomyceten hervor (also um genau zu sein Bakterien der Ordnung der Actinomycetales, aber ehrlicherweise verwirrt mich Systematik von Bakterien immer etwas). Um dann aber neue Stoffe zu finden und nicht nur bekannte, müssen neue Techniken verwendet werden. Methoden wie die Genomik bieten gute Ansatzpunkte jenseits der phänotypischen Testung, also im Prinzip einfach des „Ausprobierens“, ob die Anwesenheit bestimmter Bakterien oder Stoffe das Wachstum anderer Bakterien hemmt. So kann zum Beispiel nach potentiellen Biosynthese-Genclustern neuer antibakterieller Stoffe gesucht werden oder nach bestimmten Resistenzgenen – die meisten Antibiotika-produzierenden Mikroorganismen tragen nämlich auch Resistenzen dagegen in ihrem Erbgut. Es könnte sich aber auch lohnen, abseits der Actinomyceten zu suchen und andere Mikroorganismen unter die Lupe zu nehmen, die bisher nicht so ausführlich nach neuen Antibiotika untersucht wurden.

So viele Möglichkeiten die genomischen Methoden auch bieten, sollte man dabei die besonderen Anforderungen an Antibiotika nicht aus den Augen verlieren. Tausend neu identifizierte Biosynthese-Gene bringen nichts, wenn die entsprechenden Stoffe die Zellwand von Bakterien nicht überwinden können oder von den Bakterien direkt wieder aus der Zelle herausgeschleust werden. Zusätzlich spielt auch der Kontext der Infektion eine Rolle: Bakterien verhalten sich bei einer Infektion unter Umständen anders als in einer Laborkultur und dementsprechend kann auch der Effekt eines potentiellen Antibiotikums unterschiedlich sein.

Alte Arzneistoffe als neue Antibiotika

Naturstoffe sind aber natürlich nicht die einzige Möglichkeit, um neue Antibiotika zu finden. Auch komplett synthetische Stoffe können Potential haben, wie die sogenannten Oxazolidinone zeigen, eine Gruppe synthetischer Antibiotika, zu denen u.a. das klinisch sehr wichtige Linezolid gehört.

Neue (synthetische) Antibiotika-Kandidaten müssen allerdings nicht unbedingt neue Moleküle sein. Es gibt ein Methode namens drug repurposing, bei der existierende Arzneistoffe für neue Einsatzgebiete verwendet werden. Ein erfolgreiches Beispiel ist Zidovudin, ein Wirkstoff bei HIV-Infektionen, das ursprünglich jedoch gegen Krebs entwickelt wurde. Tatsächlich sind etwa 30 % der zugelassenen Arzneistoffe der letzten Jahre in solcher Weise wiederverwendet – allerdings kein einziges Antibiotikum.

Viele existierende Wirkstoffe zeigen zumindest in vitro antibakterielle Eigenschaften, auch wenn das für ihre in vivo-Anwendung an Menschen noch nicht viel heißen muss. Der Vorteil des drug repuposings ist jetzt, dass für diese Stoffe häufig schon Daten zur Toxizität, zur Pharmakokinetik, der Maximaldosis usw. bekannt sind. Dadurch ist es viel einfacher abzuschätzen, ob sie sich tatsächlich auch als klinisch nützliche Antibiotika eigenen würden, und falls ja ist der Weg dahin sowohl günstiger als auch schneller.

Und selbst falls die antibakterielle Wirkung allein zu gering sein sollte, könnten solche Stoffe eventuell als Adjuvans eingesetzt werden, die in Kombination die antibakterielle Wirkung eines anderen Wirkstoffs verstärken oder Resistenzen umgehen, ohne selbst (stark) antibakteriell zu sein.

Bakteriophagen – Viren gegen Bakterien

Einige Menschen werden sich jetzt wohl Fragen: Wann geht es endlich um Phagen? Bakteriophagen sind eine Art Trendthema, wenn es um Alternativen zu Antibiotika geht. Es sind Viren, die ausschließlich Bakterien befallen und damit prinzipiell perfekt um selektiv Bakterien abzutöten. Genau darauf haben sie sich schließlich über Millionen Jahre an Evolution entwickelt.

Phagen infizieren immer nur spezifische Arten von Bakterien, wodurch sie z.B. gegenüber des Mikrobioms sehr schonend sind. Diese Selektivität ist aber nicht nur ein Vorteil: Phagen haben das gleiche Problem wie Antibiotika mit engem Spektrum. Sie brauchen einen ausführlichen Erregernachweis, was nicht immer praktikabel ist. Außerdem sind Phagen potentiell immunogen, können also vom Immunsystem erkannt werden und Abwehrreaktionen wie Fieber auslösen.

T4 Phagen infizieren E. coli Bakterien (Bild: Leppänen et al. DOI 10.1002/adbi.201700070, CC BY-SA 4.0)

Ein Mythos ist, dass Phagen keine Probleme mit der Entwicklung von Resistenzen hätten. Zwar haben sie sich sehr lange entwickelt, um Bakterien zu infizieren und zu töten, aber die Bakterien hatten genauso lange Zeit, um Abwehrmechanismen zu entwickeln. Kombinationen verschiedener Phagen könnten Resistenzen verzögern, und weiterentwickelte Varianten könnten eine bestehende Resistenz überwinden, aber im Prinzip haben Phagen, was die Resistenzentwicklung angeht, nicht wirklich Vorteile gegenüber Antibiotika.

Das soll allerdings nicht heißen, dass die Phagentherapie keinen Platz in der Behandlung von Infektionen hätte. Gerade wenn sich auch die Identifikation von Erregern weiterentwickelt, können Phagen eine wichtige Rolle bei Infektionen mit Antibiotika-resistenten Bakterien spielen. Dass der Einsatz von Phagen eine hoch-personalisierte Therapie und damit aufwändig  und teuer ist, und daher auch Antibiotika nicht ersetzen kann, wird sich jedoch nicht so schnell ändern.

Das wirtschaftliche Problem

Das größte Hindernis bei der Entwicklung neuer Antibiotika habe ich jedoch noch gar nicht angesprochen. Es ist allerdings kein wissenschaftliches Problem, sondern ein wirtschaftliches.

Mit neuen Antibiotika verdient nämlich niemand Geld. Die Entwicklung von Arzneimitteln ist – vor allem durch klinische Studien – extrem teuer. Für den Entwicklungsprozess, von der Entdeckung einer Leitstruktur bis zur Einführung in die Klinik, muss ein Unternehmen etwa 1,5 Milliarden Euro investieren, im Verkauf sind Antibiotika aber eher Pfennigware. Außerdem sollten neue Antibiotika im Idealfall so selten wie möglich eingesetzt werden; sie sollten als Reserve-Arzneimittel für dringende Fälle vorbehalten werden, damit sich nicht direkt neue Resistenzen dagegen entwickeln. Das alles führt nur leider dazu, dass Unternehmen mit neuen Antibiotika ihre Investitionskosten nicht wieder reinholen können, und daher auch keinen Anreiz dazu haben, Antibiotika zu entwickeln.

Tatsächlich wird daher überproportional viel Arbeit in diesem Bereich von der akademischen Forschung übernommen, viel mehr als bei anderen Arzneimittelgruppen. Allerdings haben die Universitäten bei weitem nicht genug Mittel, diese Aufgabe allein zu übernehmen.

Wir haben in unserer Gesellschaft entschieden, dass neue Arzneimittel von gewinnorientierten Unternehmen entwickelt werden und diese Forschung nicht von der öffentlichen Hand finanziert wird. Dieses Modell funktioniert jetzt – leider im Angesicht von mehr und mehr Resistenzen – allerdings nicht mehr.

Eine dreiteilige Lösung

Wir brauchen also eine dreiteilige Lösung für das Resistenz-Problem: Der erste Teil ist eine wissenschaftliche Lösung für die Entwicklung neuer antibakterieller Wirkstoffe. Dazu gehört ein besseres Verständnis für die physikochemischen Eigenschaften von Antibiotika, neue Quellen für Leitstrukturen wie z.B. bisher wenig untersuchte Mikroorganismen oder das drug repurposing, und sinnvolle Plattformen zur Evaluation der antibakteriellen Wirkung, die verschiedene bakterielle Physiologien und Infektionskontexte nicht außer Acht lassen.

Der zweite Teil ist eine therapeutische Lösung. Sie muss eine schnellere und einfachere Identifikation von Erregern, den gezielten Einsatz von Antibiotika mit engem Spektrum und personalisierten Therapien, die Verwendung von Adjuvantien und Hemmstoffen von Resistenzmechanismen, und ein sinnvolles Therapiemanagement zur Verlangsamung der der Resistenzentstehung umfassen. Außerdem ist eine der besten Methoden gegen Antibiotika-resistente Erreger die Vermeidung von Infektionen. Das ist natürlich selbst ein großes Feld, aber klar ist, dass Impfungen auch im Rennen gegen Antibiotika-Resistenzen extrem wichtig sind.

Der dritte Teil ist schließlich eine wirtschaftliche und politische Lösung. Neue Antibiotika kosten Geld, und dieses Geld müssen wir irgendwie aufbringen. Wir können nicht erwarten, dass unser auf Gewinn ausgelegtes Gesundheitssystem Therapien hervorbringt, die mehr kosten als sie einbringen. Und diese wirtschaftliche Lösung muss immer auch global gedacht werden: Auch in ärmeren Ländern muss die Versorgung mit (neuen) antibakteriellen Arzneimitteln sichergestellt sein. Resistenzen können überall auf der Welt  entstehen und Bakterien halten sich nicht an Staatsgrenzen, und deshalb sind neue Antibiotika nur für reiche Industrienationen niemals ausreichend.

Wenn euch dieser Beitrag gefallen hat, abonniert doch gerne meinen Newsletter, um keine Blogposts mehr zu verpassen. Und hier geht es nochmal zum ersten Teil dieses Textes über die Entstehung von Resistenzen und Resistenzmechanismen, falls ihr ihn noch nicht gelesen habt.

Wieso Antibiotika-Resistenzen unvermeidbar sind – Antibiotika-Resistenzen, Teil 1

Eine der größten Revolutionen der Medizin war ohne Zweifel die Entdeckung der Antibiotika. Während davor mehr als die Hälfte aller Menschen an Infektionen starben, sind viele dieser damals lebensbedrohlichen Krankheiten heute relativ gut zu behandeln. Doch diese „Unschlagbarkeit“ gegenüber bakteriellen Infektionen wird von Antibiotika-Resistenzen bedroht. Die Entstehung von mehr und mehr Resistenzen ist unvermeidbar, und schon jetzt sind multiresistente Stämme ein großes Problem. Die Entwicklung neuer Antibiotika läuft hingegen nur schleppend. Wie also kann in Zukunft unsere Antwort auf Antibiotika-Resistenzen aussehen?

Das Wettrennen gegen Resistenzen

Der Kampf gegen resistente Bakterienstämme ist wie ein Wettrennen. Aber während die Entwicklung neuer Antibiotika durch wissenschaftliche und gesellschaftliche Gründe – die wir uns später noch genauer anschauen werden – gebremst wird, ist die Entstehung neuer Resistenzen unaufhaltsam.

Dass Bakterien resistent gegenüber bestimmten Wirkstoffen werden, ist die logische Konsequenz aus deren Einsatz. Denn wenn ein Antibiotikum erst einmal „draußen“ in der Welt ist, haben Bakterien, die weniger empfindlich darauf sind, einen evolutionären Vorteil. Sie erwerben Resistenzen gegen diesen Stoff durch Mutationen in ihrem Erbgut, was durch ihre extrem große Zahl und kurzen Generationszeiten viel schneller geht als zum Beispiel evolutionäre Prozesse bei Menschen ablaufen.

Elektronenmikroskopisches Bild von E. coli Bakterien (Bild: Janice Haney Carr)

Und hat ein Bakterium erst einmal eine Resistenz erworben, kann es sie durch einen sogenannten horizontalen Gentransfer auch an andere Bakterien weitergeben. Dabei wird genetisches Material, beispielsweise in Form von ringförmigen DNA-Stücken, den Plasmiden, von einer Zelle an eine andere übertragen. Dieses genetische Material codiert entsprechende Antibiotika-Resistenzen – aber nicht nur das: Denn oft befindet sich darauf nicht nur die Information für die Resistenz gegen einen Stoff, sondern gegen viele unterschiedliche. Und so kann es dann passieren, dass die Selektion durch die Anwendung eines Antibiotikums quasi nebenbei zum Erwerb vieler weiterer Resistenzen führt.

Wie sich Bakterien gegen Antibiotika wehren

Aber wie funktionieren Resistenzen überhaupt? Da gibt es verschiedene Mechanismen – oder Kombinationen von Mechanismen – die Bakterien resistent machen können. Erst einmal gibt es die intrinsischen Resistenzen, bei denen Bakterien aufgrund ihrer „normalen“ Eigenschaft nicht anfällig für einen Stoff sind. Bakterien können grob in zwei Kategorien eingeteilt werden: Gram-positiv und Gram-negativ. Sie unterscheiden sich durch den Aufbau ihrer Zellwand, was der Grund für viele intrinsische Resistenzen ist. Denn einige Stoffe, z.B. das Antibiotikum Vancomycin, können die Zellwand Gram-negativer Bakterien (genau genommen deren äußere Membran) einfach nicht überwinden.

Intrinsische Resistenzen sind aber nicht diejenigen, die uns Probleme bereiten. Das sind eher die erworbenen Resistenzen. Und während eine verminderte Aufnahme von Antibiotika – beispielsweise durch verringerte Bildung von Kanalproteinen oder vermehrte Bildung von Proteinen, die Antibiotika wieder aus der Zelle heraustransportieren – auch hier ein wichtiger Mechanismus ist, ist es bei Weitem nicht der einzige.

Am simpelsten sind wohl einfach Veränderungen in der Zielstruktur. Denn alle Antibiotika binden an irgendeine Struktur der Bakterien, hauptsächlich Enzyme, um dort ihre Wirkung zu vermitteln. Wenn diese Zielstruktur,  das sogenannte Target, durch eine Mutation verändert ist, können Antibiotika schlechter daran binden und werden weniger wirksam (z.B. indem sich durch eine andere Aminosäure im aktiven Zentrum eines Enzym die Bindestelle orthosterischer Hemmstoffe verändert).

Bakterien können sich aber auch direkt gegen Antibiotika wehren, indem sie sie chemisch verändern. Dazu können sie entweder Bindungen spalten – meistens durch Hydrolyse von Estern oder Amiden – oder neue chemische Gruppen an die Antibiotika anhängen. So der so, am Ende führt das dazu, dass die veränderten Stoffe nicht mehr an ihr Target binden können.  Die Aufgabe, Antibiotika chemisch zu verändern, übernehmen Enzyme. Und das bekannteste Beispiel hier sind wohl die β-Lactamasen.

β-Lactamasen spalten Penicilline und machen sie damit unwirksam

β-Lactamasen gehören zu den Penicillin-bindenden Proteinen. Aber außer Penicilline (und generell β-Lactam-Antibiotika) zu binden, können sie diese leider auch abbauen und damit wirkungslos machen. Einige Bakterien besitzen natürlicherweise β-Lactamasen, aber auch viele Stämme, die vorher Penicillin-sensibel waren, werden durch die Bildung von β-Lactamasen resistent. Als Gegenmaßnahme wurden die β-Lactamase-Hemmer entwickelt, also Arzneistoffe, die nur dazu da sind, die abbauenden Enzyme zu hemmen. Sie werden zusammen mit einem Antibiotikum gegeben, um es vor dem Abbau zu schützen. Allerdings gibt es sehr viele unterschiedliche β-Lactamasen, gegen die einzelne Stoffe alleine nicht alle wirken können, und auch die abbauenden Enzyme verändern sich immer weiter – so entstanden zum Beispiel die extended spectrum β-Lactamasen, die noch mehr unterschiedliche Antibiotika abbauen können.

Das größte Problem: Der falsche Umgang

Welcher Mechanismus auch immer für die Resistenz verantwortlich ist, er ist genetisch codiert und kann damit sowohl evolutionär entstehen als auch zwischen Bakterien übertragen werden. Und hier müssen wir uns als Menschheit selbst an die Nase fassen: Denn wir schaffen die perfekten Bedingungen dafür. Die Entstehung von Resistenzen ist nämlich an Orten am einfachsten, an denen viele und viele unterschiedliche Bakterien einer großen Zahl an Antibiotika ausgesetzt sind. Dazu gehören natürlich Krankenhäuser, in denen viele verschiedene Patient:innen mit diversen Infekten behandelt werden müssen. Aber nicht allein die Kliniken sind das Problem. Das Abwasser ist oft mit den unterschiedlichsten (antibakteriellen) Arzneistoffen kontaminiert, sodass auch dort ideale Bedingungen für Entstehung resistenter Stämme herrschen.

Generell ist der größte Faktor, der zur Verbreitung von Antibiotika-Resistenzen beiträgt, der fehlerhafte Umgang mit Antibiotika. Das reicht von unnötig oder falsch verschriebenen Antibiotika durch Ärzt:innen über unzureichende Vorschriften und mangelhafte Aufklärung von Patient:innen bis hin zum übertriebenen Einsatz von Antibiotika in der Tierhaltung und der Kontamination von Wasser und Umwelt.

Daher sind Maßnahmen, unseren Umgang mit antibiotischen Arzneimitteln zu verbessern, eine wichtiges Werkzeug im Wettrennen gegen die Resistenzen. Ein Beispiel sind die Antibiotic Stewardship Programme, die auf mehreren Ebenen und interdisziplinär einen verantwortungsvollen Umgang fördern wollen.

Aber eine Sache muss trotzdem klar gesagt werden: Solange wir Antibiotika verwenden, ist die Resistenz dagegen ein Selektionsvorteil für Bakterien. Das bedeutet, dass Antibiotika-Resistenzen quasi unvermeidbar sind. Und das heißt auch, dass wir neue antibakterielle Wirkstoffe brauchen werden, um Infektionen mit diesen resistenten Bakterien zu behandeln. Wieso das aber gar nicht so einfach ist, und was wir tun können, um dieses Wettrennen doch zu gewinnen, erfahrt im zweiten Teil dieses Textes, den ihr hier findet.

Und wenn euch dieser Beitrag gefallen hat, dann abonniert doch gerne meinen Newsletter, um keinen neuen Blogpost mehr zu verpassen.

« Older posts

© 2024 PharmBlog

Theme by Anders NorenUp ↑

WordPress Cookie Notice by Real Cookie Banner