HKP-2-2010
>
Tiergesundheit im Visier
Tiergesundheit im VisierInfektionskrankheiten – ein Stiefkind der Wirkstoffforschung?Die Relevanz vieler Infektionskrankheiten wurde in den entwickelten Ländern über lange Zeit hinweg als sehr gering eingeschätzt. Tuberkulose und Malaria galten als nahezu ausgerottet und für die gängigen Infektionskrankheiten standen Impfungen oder Antibiotikatherapien zur Verfügung. Aufgrund zunehmender globaler Reisetätigkeiten sowie eines sich ändernden Klimas wächst die Bedeutung der Infektionskrankheiten – z.B. der Leishmaniose (Orientbeule, Kala Azar) oder des Dengue- Fiebers – inzwischen auch für entwickelte Regionen rasant. Verschärft wird die Situation durch zunehmend auftretende Resistenzen gegenüber den bekannten Antibiotika- und Antiparasitikawirkstoffen. Dr.-Ing. Richard J. Marhöfer, Dr. Frank Oellien und Prof. Dr. Paul M. Selzer stellen die neusten Ansätze in der Wirkstoffforschung vor. Während die Forschung im Umfeld der Infektionskrankheiten aus dem Fokus der Humanpharma-Industrie herausgerückt ist, konzentrieren sich akademische Institutionen sowie Veterinärmedizin und Tiergesundheit nach wie vor auf diese Erkrankungen. Therapien, die in diesen Bereichen entwickelt wurden, haben sich in der Vergangenheit mehrfach als übertragbar erwiesen und werden erfolgreich eingesetzt. Paradigmenwechsel in der Wirkstoffforschung Über Jahrzehnte hinweg bestand die Forschung nach Wirkstoffen zur Bekämpfung verschiedenster Krankheitsbilder inklusive Bekämpfung von Infektionskrankheiten im Wesentlichen aus der ungerichteten Testung (Screening) chemischer Moleküle in biologischen Testsystemen, meist Versuchstieren. Viele der gängigen und noch heutzutage eingesetzten Antibiotika und Antiparasitika wurden auf diesem Weg gefunden. Seit den 1960er-Jahren geht die Anzahl der so entdeckten neuen Wirkstoffe jedoch beständig zurück, was auf sinkenden Erfolg des ungerichteten Screenings genauso zurückzuführen ist wie auf steigende Kosten für Forschung und Entwicklung sowie stark gestiegene Anforderungen an die Arzneimittelsicherheit. Fast parallel dazu wurde jedoch 1953 mit der Entschlüsselung der dreidimensionalen Struktur der DNA-Doppelhelix durch James Watson und Francis Crick ein neues Zeitalter der Arzneimittelforschung eingeläutet. Target-Identifizierung Moderne Sequenzierungsverfahren erlauben es heute, prokaryotische und eukaryotische Genome innerhalb sehr kurzer Zeit – einige Tage bis wenige Wochen – zu entschlüsseln. Die Kenntnis der Genominformation vieler relevanter Pathogene sowie deren Wirtsorganismen führte zu einem zielbasierten Ansatz (Target-based approach) in der Wirkstoffforschung. Das biologische Testsystem wurde vielfach durch ein molekulares System, das Zielprotein (Target), ersetzt. Die Anforderungen an ein Target für die Bekämpfung von Infektionskrankheiten unterscheiden sich deutlich von den Anforderungen an ein Target, das beispielsweise in einer Erkrankung des Herz-Kreislauf- Systems eine Rolle spielt. Zum einen muss ein solches Target eine essenzielle Funktion für den pathogenen Organismus besitzen, zum anderen sollte das Target im Wirtsorganismus möglichst nicht vorliegen oder zumindest ausreichend verschieden davon sein. Es ist jedoch auch möglich, Targets heranzuziehen, die im pathogenen Organismus und im Wirtsorganismus sehr ähnlich oder sogar identisch sind, sofern über andere Mechanismen ein ausreichend großes therapeutisches Fenster erreicht werden kann. Aus diesem Grund steht an erster Stelle des Target-based approachs die Identifizierung eines geeigneten Targets. Neben molekularbiologischen Techniken spielen Hochdurchsatz-Methoden wie Functional Proteomics sowie bioinformatische Methoden eine Rolle. Letzteren kommt aufgrund der Vielzahl verschiedener Genome eine besondere Bedeutung zu. Während in der Humanmedizin bereits die meisten relevanten Targets bekannt sind und grundlegende bioinformatische Methoden daher eine deutlich geringere Bedeutung haben als noch vor 10 Jahren, steigt ihre Bedeutung in Bezug auf Infektionskrankheiten stetig an. Leitstrukturidentifizierung Nach der Identifizierung und Validierung eines potenziellen Targets steht die Suche nach geeigneten Wirkstoffen an. Zu diesem Zweck werden üblicherweise einige hunderttausend bis zu Millionen kleine chemische Moleküle auf ihre Wirksamkeit am isolierten Zielprotein im Hochdurchsatz (High-Throughput Screening, HTS) getestet. Die Entwicklung eines robusten Testsystems (Assay) sowie die Durchführung eines HTS schlagen jedoch mit Kosten von 10.000 € bis zu 1 Million € bis zur Identifizierung geeigneter Leitstrukturen zu Buche. Aus diesem Grund werden laborbasierte Screenings standardmäßig durch computergestützte Suchansätze ergänzt. Insbesondere sind hier die verschiedenen Methoden des virtuellen Screenings (VS) zu nennen. Als virtuelles Screening bezeichnet man alle computergestützten Methoden, die große virtuelle Substanzbibliotheken automatisiert evaluieren und potenzielle Liganden für ein Target-Protein identifizieren. Die Substanzen müssen dabei nicht physikalisch vorliegen, sondern es reicht die elektronische Repräsentation der Verbindungen. Durch Einsatz moderner, hochleistungsfähiger Computer ist es so möglich, einen deutlich höheren Durchsatz im Vergleich zum Laboransatz zu erreichen. Dadurch wird es einerseits möglich, sehr viel größere Substanzbibliotheken zu testen und andererseits kann ein chemischer Raum evaluiert werden, der experimentell nur schwer zugänglich ist. Ziel des VS ist letztlich die Identifikation eines überschaubar großen Satzes an potenziell aktiven Substanzen, die anschließend experimentell auf ihre Aktivität getestet werden. Dem VS können verschiedene Methoden zu Grunde liegen. Eine Methode ist das molekulare Docking, mit dem kleine chemische Moleküle in die Bindetasche des Zielproteins eingepasst und entsprechend ihrer Passform (Topologie), ihrer Interaktion mit dem TargetProtein sowie verschiedener komplementärer physikochemischer Parameter beurteilt werden (Scoring). Das Ergebnis des Scorings ist ein Maß für die Bindeaffinität des kleinen Moleküls zum Target und erlaubt es, die Moleküle einer großen Substanzbibliothek entsprechend ihrer vorhergesagten Bindeaffinität zu ordnen. Da die Genauigkeit des Scorings umgekehrt proportional zum Zeitbedarf der Berechnung jedoch gleichzeitig auch für die Güte des VS entscheidend ist, muss im High-throughput Docking ein Kompromiss zwischen Genauigkeit und Geschwindigkeit der Berechnung gefunden werden. Leitstrukturoptimierung Sobald Leitstrukturen identifiziert und experimentell bestätigt sind, werden sie im Hinblick auf verschiedene Parameter wie Potenz, Selektivität, ADMETox Eigenschaften etc. medizinalchemisch optimiert. In diesem Schritt spielen wie auch im Screening computergestützte Methoden (z.B. QSAR, QSPR, ADMETox) eine große Rolle. Schließlich ermöglicht die in silico-Methodik im Zusammenspiel mit ausgefeilten Visualisierungstechniken detaillierte Einblicke in den molekularen Wirkmechanismus, was die Ableitung sehr genauer Hypothesen und eine gerichtete Optimierung zulässt.
- richard.marhoefer@sp.intervet.com
Literatur |
HKP 2 / 2010Das komplette Heft zum kostenlosen Download finden Sie hier: zum Download Die Autoren:Weitere Artikel online lesen |
|||
|