Überlebenswichtig: Das reibungslose Zusammenspiel der medizinischen Geräte und Instrumente. Einheitliche Normen sind gefragt…
Für medizinische Geräte aller Art – ganz egal ob für das Ultraschall- oder Blutdruckmeßgerät, das EEG oder das Narkosegerät – galt schon immer, dass an sie höchste Ansprüche hinsichtlich Funktionstüchtigkeit und Zuverlässigkeit gestellt werden. Ganz klar: medizinische Apparate und Geräte sind integraler Bestandteil des Behandlungsalltags. Mit ihnen wird überwacht, diagnostiziert und behandelt. Und dazu müssen die Geräte funktionieren.
Um diese funktionellen Eigenschaften zu gewährleisten, gibt es natürlich Normen, die die Qualitätsstandards sicherstellen. Doch inzwischen genügt es nicht mehr, dass die einzelnen Geräte reibungslos ihre Aufgabe verrichten: Medizinprodukte in Klinik oder Praxis sind längst in Netzwerke eingebunden, die Geräte tauschen ihre Daten aus und sind Teil einer medizinischen IT-Infrastruktur, von der buchstäblich Leben abhängen. Die DKE (Deutsche Kommission Elektrotechnik Elektronik Informationstechnik im DIN und VDE) versucht – beim Weltkongress und anderswo – die Wichtigkeit dieses Themas bewusst zu machen.
Neue Herausforderung durch eine Vernetzung von Medizintechnik und IT
Der Bedeutungszuwachs von medizintechnischen Produkten und ihrer Vernetzung spielt sich auf ganz verschiedenen Feldern ab, woraus sich jeweils andere Prioritäten ableiten, wenn über Sicherheitsfragen diskutiert wird. Da gibt es etwa das (hoffentlich reibungslose) Zusammenspiel der Geräte im Operationssaal. Hier kommen leicht 12 oder auch 15 Einzelkomponenten zusammen, die miteinander vernetzt sind und teilweise auf gemeinsame Datensätze zugreifen. Und die Geräte stammen natürlich keinesfalls von einem einzigen Hersteller – hier sind gewissenhafte IT- und Medizintechnikmanager gefragt, die diese lebenswichtige Systemintegration sicherstellen.
Für Ärzte gibt es übrigens seit diesem Jahr, worauf Michael Bothe (vom VDE-Prüf- und Zertifizierungsinstitut) am Rande des Weltkongresses hinwies, spezielle Schulungen des VDE, um sich in diesem Bereich fit zu machen.
Aber nicht nur in der Klinik sind einheitliche Standards erforderlich. Gerade wenn man etwa den Bereich der gesundheitlichen Altersversorgung betrachtet, dann wird deutlich, wie wichtig eine zertifizierte Qualität ist (die immer eine Kompatibilität innerhalb eines Systems beinhaltet!). Einzelkomponenten müssen hier künftig per Plug&Play in Echtzeit ausgetauscht werden, so ebenfalls eine Forderung, die zu hören war. Hier gibt es etwa die Normenfamilie ISO/IEEE 11073, die sicherstellt, dass Vitaldaten zwischen einzelnen Geräten ausgetauscht werden können.
Wenn wir von Telemedizin reden, dann muß sichergestellt sein, dass die medizintechnischen Produkte eine gemeinsame Sprache sprechen
Und damit ist man natürlich auch schon bei einem anderen Schlagwort gelandet, das vor gar nicht allzu langer Zeit noch als Zukunftsvision gehandelt wurde, heute aber schon mehr und mehr Realität ist: Telemedizin nämlich.
Und diese Telemedizin, die – so Michael Bothe – auch eine Antwort auf den steigenden Kostendruck im Gesundheitssystem ist, erfordert eben einheitliche Normen und die Sensibilisierung für dieses Thema. Wobei für ihn der Datenschutzaspekt im Umgang mit vertraulichen Patientendaten ganz wesentlich ist.
Damit jedenfalls künftig von der prophylaktischen Überwachung der Vitalfunktionen, der Früherkennung über die Diagnostik bis zur Behandlung und letztlich die Rekonvaleszenz in den eigenen vier Wänden, alles reibungslos ablaufen kann, sind noch einige Rahmenbedingungen zu schaffen. Und dazu müssen die Geräte eben eine Sprache sprechen…
]]>Ganz egal, ob das von der Kongress-Organisation so geplant war oder nicht: der Vortrag von Fraunhofer-Chef Bullinger ergänzte auf schöne Weise die herausragende Keynote von Roger Y. Tsien. Während Nobelpreisträger Tsien mustergültig vorführte, auf welch spannende Pfade die Grundlagenforschung führen kann, nahm Bullinger eine ganz andere Perspektive ein: nämlich diejenige des Geldgebers für Forschung.
Zum Beginn des abends hatten Wolfgang Dössel und Werner Schlegel in kurzen Grußworten nochmal klargestellt, wie sich Inventions (i.S. von Entdeckungen bzw. Erfindungen) und Innovationen (i.S. der Etablierung marktfähiger Produkte) unterscheiden. Hans-Jörg Bullinger schloß daraufhin direkt an diese Begriffsdefinition an.
Forschungsförderung ist keine Einbahnstrasse
Für den Präsident der Fraunhofer Gesellschaft ist die Förderung von wissenschaftlichen Forschungsprojekten natürlich Alltagsgeschäft. Es sei der Transfer von Geld in Wissen, wofür seine Institution stehe. Allerdings – und wer mochte ihm da widersprechen – sei es eben unbedingt notwendig, dass das Wissen auch wieder in Innovationen umgesetzt werden könne. Denn nur durch Innovationen sei es möglich (gesamtwirtschaftlich betrachtet) Geld einzuspielen, das daraufhin wieder für Forschung und Wissenschaft ausgegeben werden könne.
Sicher keine weltbewegende Einsicht, die Bullinger damit vermittelte, aber schlichtweg eine Tatsache, an die man durchaus erinnern darf. Für den Bereich der Medizintechnik geht die Rechnung bislang jedenfalls auf. Deutschland steht mit etwa 13,5% Marktanteil in dieser Branche ausgesprochen gut da.
Und die Chancen, dass dies auch so bleibt, stehen offenbar recht gut. Denn im Anschluß an Bullingers Rede wurden die vier Preisträger des VDE-Innovation-Awards ausgezeichnet.
Hierzu wurden Dirk Meier („for MR-compatible γ-Camera for Simultaneous SPECT/MR Imaging of Small Animals In-Vivo”), Timo F. Sattel von der Uni Lübeck („for Single-Sided Coil Configuration for Magnetic Particle Imaging”), Stefan Becker, Institute of Medical Engineering, Lübeck („for An adaptive landmark scheme for modeling brain deformation in diffusion-based tumor growth”) und Gabriel Dos Reis aus Mailand („for Microfabrication of biomimic hydrogels: bio-inspiration to recreate neural networks or physiological environments onto a novel smart material”) auf die Bühne gebeten.
—
Die Preisträger und die Kongresspräsidenten (v.l. Gabriel Reis, Stefan Becker, Dirk meier, Timo Sattel, Werner Schlegel, Olaf Dössel, Hans-Jörg Bullinger)
Kann Telemedizin die Kostenexplosion im Gesundheitswesen stoppen?
Nicht zuletzt machen finanzielle Einsparmöglichkeiten die Telemedizin interessant. Laut Eric Silfen von Philips Healthcare, der beim Weltkongress der Medizintechnik 2009 in München einen Vortrag zum Thema hielt, sind die Gesundheitsausgaben in den USA um 2,8 Prozent pro Jahr in den vergangenen drei Jahrzehnten gestiegen. Daher kann besonders in der Prävention und Langzeitbeobachtung von Patienten die Telemedizin helfen.
Als ein Pilot-Projekt sind in den ländlichen Regionen des US-Bundesstaats New York mehr als 1500 Diabetes-Patienten an „Ideatel” angeschlossen. Über diese online-basierte Plattform können die Patienten sich mit Diabetes-Beratern besprechen und ihren Blutdruck erfassen. Das Ergebnis: Die dauerhafte Fernbeobachtung führte zu einer gesundheitlichen Verbesserung der Patienten.
An einem anderen Kommunikationskanal zwischen Patient und Mediziner arbeitet Joo-Hyun Hong von der Chungbuk National University in Südkoreo. Er experimentiert mit EKG-Sensoren, die ständig am Körper getragen werden und ihre Daten per SMS an den Mediziner schicken. Das Ziel ist es, den Patienten bei Auffälligkeit der EKG-Daten zu alarmieren, Herzkranke zum Beispiel.
» Markus Thierbach beschäftigt sich aus freier Journalist mit Alltagsphänomenen. » Er bloggt auf www.besondersalltag.de |
Scienceblogs: Was ist auf dem Gebiet dieser Schnittstellen möglich?
Steffen Rosahl: Amputierte etwa können damit künstliche Gliedmaße steuern. Dabei werden Elektroden auf der Haut aufgesetzt und mit der Spannung, die noch die vorhandenen Muskeln erzeugen, die Prothesen gelenkt. Es geht weiter zu den implantierten Prothesen im Nervensystem, mit deren Hilfe taube Menschen hören können.
Scienceblogs: Wie funktioniert das?
Steffen Rosahl: Die Rezeptoren für Geräusche sind bei manchen Patienten so gestört, dass sie nichts hören. Solange der Hörnerv aber intakt ist, kann man Elektroden damit verbinden. Diese Schnittstelle wird dann implantiert. Ein Mikrofon, das der Patient hinterm Ohr trägt, und ein Sprachprozessor im Kopf ersetzen die Rezeptoren. (vgl. dazu den Beitrag über Cochlea-Implantate.)
Scienceblogs: Welche Entwicklungen der nahen und fernen Zukunft sehen Sie kommen?
“Die Zukunft hat bereits begonnen. Bei Patienten mit Depressionen oder Zwangsstörungen werden Tiefenhirnstimulationen angewendet.”
Steffen Rosahl: Die Zukunft hat bereits begonnen. Bei Patienten mit Depressionen oder Zwangsstörungen werden Tiefenhirnstimulationen angewendet. Solche Implantate bekommen auch Parkinson-Kranke, die unkontrolliert zittern oder im Extremfall sich gar nicht mehr bewegen können. Eine Elektrode wird dann in den Bereich des Gehirns gesteckt, wo diese Bewegungsblockade, unter der die Patienten leiden, ausgeschaltet wird.
Scienceblogs: In ihrem Vortrag haben Sie das Publikum mit dem Beispiel des Wissenschips provoziert, mit dem zukünftige Generationen ihr Gedächtnis auffrischen. Ist das reine Science Fiction?
Steffen Rosahl: Das kann heute keiner sagen. Man müsste Gehirn-ähnliche Strukturen nachbauen, was weniger schwierig ist, als diese Struktur an das menschliche Gehirn anzuschließen. Dieses Problem ist noch lange nicht gelöst.
Scienceblogs: Welchen ethischen Bedenken im Zusammenhang mit neuro-elektronischen Schnittstellen werden diskutiert?
Steffen Rosahl: Zum einen gibt es das Problem der Unterscheidung zwischen Krankheit und Gesundheit. Ein Gehörloser etwa, der schon ohne Gehör auf die Welt gekommen ist, empfindet es als normal, nichts zu hören. Ein Gehörimplantat empfindet er als einen Eingriff in seine soziale Sphäre und lehnt es daher ab. Er und seine Freunde benutzen halt eine andere Sprache, die Sprache der Gehörlosen. Wer sich ein Implantat setzen lässt, wird als Aussteiger aus der „Deaf Community” gesehen.
“Wir verwechseln oft Science Fiction mit machbaren Techniken.”
Scienceblogs: Welche anderen Bedenken gibt es bei neuro-elektronischen Schnittstellen?
Steffen Rosahl: Wir verwechseln oft Science Fiction mit machbaren Techniken. Dann kommt man sehr schnell dahin, die Forschung auf diesem Gebiet ins ethische Abseits zu stellen. Uns Forschern wird dann vorgeworfen, dass wir die Menschen verbessern wollen würden. Das ist nicht der Fall. Man muss aber unterscheiden zwischen der Behandlung einer Krankheit und Neuro-Enhancement – etwa Wissenschips wie in „Matrix”. Man muss sehen, wo dazwischen die Grauzone ist.
» Markus Thierbach beschäftigt sich aus freier Journalist mit Alltagsphänomenen. » Er bloggt auf www.besondersalltag.de |
Das Gerät der US-amerikanischen Firma Tomotherapy (s. rechts) erinnert mit seiner Ringform an einen Computertomographen (CT), in dessen Inneres der Patient auf einer Bahre gefahren wird. Auf der Ringbahn um den Patienten herum kreist der Linearbeschleuniger, der einen starken Röntgenstrahl erzeugt. „Der Strahl ist konstant, wird aber durch die schwenkbaren Lamellen des Kollimators gesteuert”, erklärt Tanja Wolff am Rande des Weltkongresses der Medizintechnik in München.
Das „Hi-Art treatment system” benutzt den Strahlenkopf jedoch nicht nur zur dreidimensionalen Visualisierung des Körperinneren, also zur Zielerfassung. Sondern mit dem gleichen Kopf führt das Gerät auch die Bestrahlung des Patienten aus. Das junge Unternehmen, gegründet 1997 im US-Bundesstaat Wisconsin, sieht sich mit seiner ringförmigen Bauart technologisch an der Spitze. „Andere Unternehmen folgen uns in der Konstruktionsweise”, sagt Wolff.
Nicht jedoch Siemens Healthcare mit dem Gerät „Artiste Solution” (siehe Abbildung links). Das Unternehmen greift bei der Konstruktion auf die traditionelle C-Bogen-Bauweise zurück: Zwei riesige Arme, in denen sich Strahlenkopf und CT-Detector gegenüber liegen, umfahren den Körper des Patienten. Bei einer Rückenmarksbestrahlung etwa muss der Patient umgebettet werden, damit das Gerät den gesamten Bereiche bestrahlen kann. Beim „Hi-Art treatment system” hingegen kann fast der ganze Körper des Patienten auf einmal abgefahren werden.
Siemens wiederum verspricht den Medizinern eine kürzer und damit wirtschaftlichere Behandlungszeit als mit anderen IMRT-Beschleuniger. Die Wahl des Geräts ist also Glaubenssache.
» Markus Thierbach beschäftigt sich aus freier Journalist mit Alltagsphänomenen. » Er bloggt auf www.besondersalltag.de |
Die OCT-Technologie macht die frühzeitige Diagnose von Glaukomen erst möglich.
In jeder Sekunde wird irgendwo in der Welt ein OCT-Scan vorgenommen, so schätzt Dr. Michael Kaschke, Physiker und Bereichsleiter für die Bereiche Medizintechnik und Mikroskopie bei Carl Zeiss. Diese Zahl illustriert, dass die OCT-Geräte ganz offensichtlich eine Marktlücke abdecken. Denn bis Ende der 90er Jahre waren die Möglichkeiten zur Diagnostik des Augenhintergrundes doch arg begrenzt.
Auflösungsgrenzen setzt nur das Licht
Doch die Optische Kohärenz-Tomographie öffnete dann die Tür zu neuen Möglichkeiten der Tiefen- und Verlaufsdiagnostik. Dahinter steht eine Technologie, die gewisse Analogien zu Ultraschalluntersuchungen aufweist. Jedoch nutzt das OCT nicht Schallwellen, sondern Licht aus dem Infrarot-Bereich, das es ausstrahlt und dessen Reflektion es dann misst und auswertet.
Auf diese Weise unterbietet die OCT-Technik die Auflösungsgrenzen von anderen Verfahren um Längen; schließlich ist eigentlich nur die Wellenlänge des Lichts der begrenzende Faktor. Die aktuelle Gerätegeneration unterbietet inzwischen die Schwelle von 5 µm (=5 Tausendstel Millimeter). Und zusätzlich bietet die OCT den Vorteil, dass es Einblicke bis zu 3mm tief in das Gewebe erlaubt.
Im Falle der Glaukomdiagnostik wird auf diese Weise die Dicke der Netzhaut gemessen und ausgewertet. Das passiert natürlich berührungslos und die ganze Untersuchung ist in wenigen Minuten passiert. Die Kongressteilnehmer hier in München können sich davon – im wahren Wortsinn – mit eigenen Augen überzeugen:
Aber die Anwendungsmöglichkeiten der Optischen Kohärenz-Tomographie gehen über das Feld der Augendiagnostik hinaus. Auch im Bereich der Zahnheilkunde zeigen Untersuchungen den Mehrwert: das langwellige Licht macht die Kariesdiagnostik sehr viel leichter und zielsicherer.
Auch die Zahnheilkunde oder Internisten können von der OCT-Technik profitieren.
Und inzwischen wird auch von anderen medizinischen Disziplinen getestet, ob die OCT-Technik für sie sinnvoll sein kann. Vielversprechend sind etwa Versuche, den Verlauf von koronaren Erkrankungen und deren Therapie zu überwachen. Mit einem Katheter lässt sich ein OCT-Sensor etwa dazu nutzen, um zu überprüfen, ob ein Stent in der Arterienwand richtig verwachsen ist.
Man darf gespannt sein, ob noch weitere Anwendungsgebiete hinzukommen. In der Hitliste der Cleveland Clinic aus dem Jahr 2006, in der die vielversprechendsten medizintechnischen Innovationen aufgeführt waren, landet die OCT jedenfalls schonmal auf Platz 4.
—
Hier die entsprechende Folie zur Stent-Überprüfung aus der Keynote von Dr. Michael Kaschke / Carl Zeiss AG:
Olga Golubnitschaja ist Professorin am Universitätsklinikum Bonn, Leiterin der Forschungseinheit “Molekulare/Experimentelle Radiologie” und ausgewiesene Expertin in Sachen Vorsorgeuntersuchungen und “Prädiktive Medizin”. Sie hat uns einige Fragen beantwortet…
ScienceBlogs: Frau Golubnitschaja, inzwischen gibt es eine ganze Reihe an Vorsorgeuntersuchungen. Diese reichen vom Glaukom-Screening bis zu den bekannten Krebsfrüherkennungen. Für den Patienten ist es oft schwierig, die Möglichkeiten und den Nutzen abzuschätzen. Welche Tipps kann man hier geben?
Olga Golubnitschaja: Es gibt leider keine pauschalen oder allgemeine Tipps, die für jeden Mensch optimal sind – das ist das schwierige an der Sache. Daher werbe ich – wie auch viele weitere Wissenschaftler – für die individualisierte Behandlung und personalisierte Medizin. Denn leider ist auch die so genannte Früherkennung oft nicht „früh” genug, um dem Patienten effektiv zu helfen. Ein Beispiel ist die Früherkennung eines Brustkrebses durch die allgemein verwendete Mammographie: Detektionsgrenze = 6 mm der Tumorgröße. Dabei stirbt man nicht am primären Brustkrebs, sondern an der Auswirkung der Metastasen, die bereits im Frühstadium der Erkrankung aktiv sind, d.h. längst bevor die Tumorgröße erreicht wird, die durch Mammographie überhaupt detektierbar ist.
Und nicht vergessen – Brustkrebs ist eine der häufigsten Todesursachen unter den Krebserkrankungen! All diese Tatsachen begründen die dringende Notwendigkeit einer Prädiktivdiagnostik als Populations-Screeningmethode. Die entsprechenden technologischen Lösungen gibt es bereits – es muss natürlich geprüft werden, welche davon die optimalsten sind.
Ein weiteres Beispiel wurde zurecht von Ihnen genannt – Glaukom ist die zweithäufigste Erblindungsursache: weltweit werden derzeit 65 Millionen Glaukomkranke registriert. Das ist eine degenerative chronische Erkrankung des Sehnervs.
Doch worin besteht die Früherkennung für die chronische Erkrankung? Derzeit ist es der Zeitpunkt, wenn die Erkrankung ihren Gang bereits genommen hat. Ist es früh genug? Für einen Glaukomkranken oft nicht mehr, besonders wenn es um ein Normaldruck-Glaukom (NDG) geht. Und die Krankheit betrifft relativ oft junge Leute im produktiven Alter. Dazu gibt es ausgezeichnete wissenschaftliche Arbeiten, die klar demonstrieren, dass z.B. gesunde aber vasospastische Leute (vaskuläre Dysregulation) eine starke Neigung zur Entwicklung eines NDG haben können.
Um den (potentiellen) Patienten besser helfen zu können, müssen wir unter den Gesunden nach bestimmten Prädispositionen suchen.
Mit anderen Worten – wir kommen zum gleichen Schluss: um den (potentiellen) Patienten besser helfen zu können, müssen wir unter den Gesunden nach bestimmten Prädispositionen suchen und zwar mit Hilfe innovativer Technologien der Prädiktivdiagnostik, natürlich in sinnvoller Balance mit den konventionellen diagnostischen Verfahren. Die applikationsreifen Technologien der prädiktiven Diagnostik habe ich mit Unterstützung von 60 Mitautoren aus 16 Ländern im weltweit ersten Buch über das Gesamtkonzept zusammen gestellt („Prediktive Diagnostics & Personalized Treatment: Dream or Reality?”, O. Golubnitschaja (ed.), „Nova Science Publishers”, New York, USA, 2009.)
ScienceBlogs: Ein Problem vieler Vorsorgeuntersuchungen ist die mangelhafte Zuverlässigkeit, die dann zu falsch-positiven Befunden führt. Welche Bemühungen gibt es, diese Quote zu senken?
Olga Golubnitschaja: Ja, Sie haben recht. Der häufige Grund dafür ist, dass viele Vorsorgungsuntersuchungen unter dem gleichen Mangel leiden – einseitige Wahrnehmung der diagnostischen Sicht; dagegen ist die Natur so schön vielfältig! Es reicht nicht, z.B. bei der Tumorvorsorge nur nach monogenetischen Veränderungen (z.B. Mutationen) zu suchen.
Abgesehen von der DNA-Ebene, gibt es im Organismus viele weitere Regulationsstufen, die für eine korrekte Diagnostik mitberücksichtigt werden müssen.
Ein Beispiel dafür ist die Untersuchung der BRCA-Mutationen, die jedoch nicht ausreichend für eine zuverlässige Brustkrebsvorsorge sind. Abgesehen von der DNA-Ebene, gibt es im Organismus viele weitere Regulationsstufen – innerhalb und außerhalb der Zelle – die für eine korrekte Diagnostik mitberücksichtigt werden müssen.
Wie viele Tests sollen für eine zuverlässige Diagnose ausreichen, um dabei noch bezahlbar zu bleiben? Das ist eine komplexe Aufgabe, die optimale Anzahl fest zu stellen. Dafür braucht man ein starkes Konsortium – führende Spezialisten auf entsprechenden Fachübergreifenden Gebieten. U.a. gerade mit dieser Aufgabe beschäftigt sich die „European Association for Predictive, Preventive & Personalised Medicine” (www.epmanet.eu), die ich als Generalsekretärin hier beim Kongress repräsentiere. Und der Patient ist im Fokus dieser Assoziation.
Eine der wichtigsten Initiativen der Assoziation ist es, eine Kette von Zentren Europaweit zu kreieren, die zuverlässige prädiktive Diagnostik mit gezielten präventiven Maßnahmen und personalisierter Behandlung anbieten. Ein jeweiliges „Mutter”-Zentrum soll durch das Konsortium entsprechender führender Spezialisten geschaffen werden, um zuerst eine optimale Zusammenstellung der Technologien zu erzielen und diagnostische Einsätze für die „Tochter”-Zentren zu standardisieren. Mit der Etablierung des ersten Zentrums dieser Art beschäftigt sich die EPMA ab Januar 2010 in Brüssel.
]]>Scienceblogs: Herr Urban, wie funktioniert der Sensor im Blutzucker-Messgerät?
Gerald Urban: Seine Funktionsweise beruht darauf, dass ein natürlicher Katalysator, ein Enzym, den Blutzucker umwandelt in einen Stoff, den man messen kann. In diesem Fall eines Glukose-Sensors ist es Wasserstoffperoxid, das an einer Platin-Elektrode oxidiert. Der elektrische Strom, der dabei entsteht, ist ein Maß für die Blutzucker-Konzentration. Das ist der Stand der Technik.
“Allein die Entwicklung des Langzeitsensors, der mehrere Messzyklen unbeschadet übersteht, hat ungefähr 10 Jahre gedauert.”
Scienceblogs: Wie lange hat es gedauert, bis dieser Biosensor auf dem Markt gekommen ist?
Gerald Urban: Die Entwicklung des Langzeitsensors, der also mehrere Messzyklen unbeschadet übersteht, hat ungefähr 10 Jahre gedauert. Dieser Sensor ist sehr komplex. Die Wegwerfsensoren, die man heute am meisten verwendet, sind technisch viel einfacher beschaffen. Die Elektrode braucht das Enzym nur absorbieren, aber nicht wieder abgeben. Das ist nicht trivial: Diese Entwicklung hat weitere fünf Jahre bis zur Marktreife gebraucht.
Scienceblogs: Worin besteht die Schwierigkeit bei der Entwicklung solcher Sensoren?
Gerald Urban: In der interdisziplären Zusammenarbeit. Man muss Hochtechnologie verbinden mit Elektrochemie, mit Biochemie und Biotechnologie. Grob gesagt muss man vier Bereiche, die wenig miteinander zu tun haben, verbinden. Man braucht Leute, die von allen diesen Gebieten Ahnung haben.
Scienceblogs: Welche Weiterentwicklung der Biosensoren in Blutzucker-Messgeräten erwarten sie?
Gerald Urban: Es bahnt sich ein Paradigmenwechsel an. Man forscht schon seit den frühen 1960er Jahren an Glukose-Sensoren. Damals gab es die Idee, Biosensoren in den Patienten zu implantieren und damit eine Insulinpumpe zu regulieren. An der Umsetzung sind aber schon viele Forscher gescheitert.
Scienceblogs: Und die Zukunft?
Gerald Urban: Sie wird von der „persönlichen Medizin” bestimmt sein. Darunter ist zu verstehen, dass die genetischen und molekularen Informationen eines jeden Patienten darüber Auskunft geben, für welche Krankheiten er eine Disposition in sich trägt und wie Umweltreize ihn beeinflussen. Daraus lassen sich die metabolischen Parameter ableiten, die mit dem Blutzucker-Wert zusammenhängen. Die Frage ist also: Wie lassen sich Krankheiten, Diabetes etwa, verhindern? Antworten werden wir erst nach Jahrzehnten der Forschung finden.
» Markus Thierbach beschäftigt sich aus freier Journalist mit Alltagsphänomenen. » Er bloggt auf www.besondersalltag.de |
Die Hoffnung vieler schwerhöriger und gehörloser Menschen liegt auf den Cochlea-Implantaten. Und tatsächlich ermöglicht das Implantat vielen ertaubten Menschen, dass sie zumindest wieder an (in Lautsprache geführten) Gesprächen teilnehmen können. Doch in komplexeren Hörumgebungen (an belebten Plätzen, im Klassenzimmer, beim Kneipenbesuch) stößt die Technik leider häufig recht schnell an ihre Grenzen.
In komplexen Hörumgebungen kommt die aktuelle CI-Technik schnell an ihre Grenzen.
Das liegt schon allein daran, dass die gängigen Cochlea-Implantate über etwa 20 Frequenzkanäle verfügen und die Elektroden im Innenohr jeweils eine ganze Palette an Nervenzellen stimulieren.
Eine feine Differenzierung nach Freqenzen ist so natürlich nicht möglich. Aktuelle Forschungsarbeiten – wie etwa diejenigen von Claus-Peter Richter von der Northwestern University in Chigago – zeigen jetzt einen neuen Weg auf, wie man diese Beschränkungen der neuronalen Impulsübertragung überwinden könnte. Wenn man nämlich nicht mehr elektrisch, sondern optisch anregt.
Mehr Präzision durch Infrarot-Laser-Impulse
Seit einigen Jahren arbeitet Richter an der Frage, ob und wie sich mittels Infrarot-Laserstrahlen der Hörnerv (und potentiell auch andere Nerven) reizen lässt. Und Richters Studien deuten an, dass dies über den optischen Impuls sehr viel präziser, als mit den feinen Elektrodendrähten möglich ist. Im Tierversuch konnte er zeigen, dass die Befeuerung der Nerven mit Laserimpulsen im Vergleich zur elektrischen Reizübertragung dieselbe dynamische Bandbreite liefert, dabei aber sehr viel selektiver ist und somit weniger Überlagerungen und Artefakte produziert.
Diese höhere Präzision wird in dieser Gegenüberstellung deutlich (links die Reaktion auf die optische, rechts bei der konventionellen elektr. Stimulation):
Eine Frage für Langzeittests: Was passiert mit Nerven, wenn sie dauerhaft Laserimpulsen ausgesetzt sind?
Nun geht es sicherlich darum, diese Technik in weiteren Versuchsreihen zu optimieren und in Langzeitversuchen zu klären, wie sich Nerven verhalten, wenn sie dauerhaft Laserimpulsen ausgesetzt sind. Und dann steht man freilich auch noch vor der Herausforderung, die Steuerungseinheiten soweit zu miniaturisieren, dass es – im Falle des Cochlea-Implantats – in den Schädelknochen implantiert werden könnte.
Claus-Peter Richter ist recht zuversichtlich, dass dies in den nächsten Jahren gelingen könnte. Schließlich steht mit den bewährten CIs ja prinzipiell eine Technik bereit, an die man anschließen könnte – auch wenn man dazu zunächst vielleicht auch nur mit rund 20 Frequenzkanälen auskommen müsste. Die optische Variante würde es auch ermöglichen, die Kanäle auf 40 zu erhöhen. Aber das ist heute noch – im wahrsten Sinne des Wortes – Zukunftsmusik.
]]>Brian Davies, Professor für Medizinrobotik am Imperial College in London, hat bereits 1991 Prostata-Operationen mit Hilfe des „Probot” ausgeführt. Er bestimmte, welchen Schnitt die Schere im Innern des Patientenkörpers ausführen sollte. Das Gerät machte den Schnitt eigenständig – es war einfach präziser darin als er selbst. Davies beobachtete den Vorgang nur auf einem Ultraschall-Bildschirm.
Solche als „aktiv” oder „autark” bezeichneten Roboter werden heute hingegen weniger verwendet als Master-Slave-Systeme. Dieser Begriff beschreibt Roboter, die als verlängerte Arme und Hände des Chirurgen funktionieren. Einer davon ist das „Da Vinci Surgical System”.
Der Mediziner steuert die Werkzeuge von einer Einheit aus, die etwa die Größe eines Geldautomaten hat. „Der Operateur presst seine Augen an einen Bildschirm, mit Händen und Füßen lenkt er die Werkzeuge”, beschrieb Davies die Arbeitsweise in seinem Vortrag beim Weltkongress der Medizintechnik in München. Zur Operationsstelle selbst führt oft nur ein kleiner Schnitt in der Haut für die Geräte.
Die Da-Vinci-Werkzeuge sind wie Strahlen um den Zugang zur Operationsstelle angeordnet: Skalpell und Schere gehören dazu, aber auch ein Instrument aus der Hochfrequenz-Chirurgie, das mit Wechselstrom Gewebe verödet. Der Mediziner sieht mit einer Mini-Kamera.
Dass die Roboter dabei helfen, Operationen am menschlichen Körper minimal-invasiv durchzuführen, ist ihr größter Pluspunkt. Dennoch trauen nicht alle Chirurgen diesen neuen Geräten. „Die Schwierigkeit für die Roboter ist, um gesundes Gewebe herum schneiden zu können”, sagt Davies. Zudem verleihen Chirurgen ungerne ihre handwerkliche Expertise an eine Maschine.
Was wird da den Durchbruch bringen? Davies meint, dass „die Nachfrage vom Patienten ausgehen wird und die Chirurgen sich dem öffnen werden.” Bis die Roboter aber besser sind als der Chirurg selbst, also schneller und präziser, müssen die Maschinen noch viel lernen.
—
Brian Davies bei seinem Vortrag:
]]>Diabetes schädigt die dünnen Gefäße, die die Netzhaut im Auge durchziehen und mit Blut versorgen. Die Blutungen stoppt Rossi mit einem modifizierten Laser. YAG-Laser haben bei der Behandlung von Augenerkrankungen den Vorteil, dass sie in Wasser, aus dem das Auge zum Großteil besteht, keinen Schaden anrichten. „Blutklumpen jedoch, die stark Licht absorbieren, werden verbrannt”, erklärt Rossi.
Drei Spiegel führen den grünen Strahl seines Lasers mehrfach durch zwei Spezial-Kristalle, wobei das gebündelte Licht seine Wellenlänge erhöht. Einer der Spiegel hat eine besondere Beschichtung, durch die der Strahl das System verlässt. Ein Glasfiberkabel führt das Licht zum menschlichen Auge..
Dünner als ein Haar
Der Patient und der Arzt sehen von dieser ganzen Technik nur das Ende des Kabel, und selbst wenn der Mediziner sich die größte Mühe beim Hinsehen geben würde, er könnte den Strahl nicht erkennen. Der Laser hat einen Durchmesser zwischen 50 und 600 Mikrometer. Zum Vergleich: Ein menschliches Haar ist 70 Mikrometer dick.
Um das grüne Licht ausrichten zu können ist es daher mit einem besser erkennbaren roten Laserstrahl gepaart, der ebenfalls nur mit Hilfe von Vergrößerungsgläsern zu sehen ist.
300 Schuß von je 200 bis 300 Millisekunden Länge feuert der Arzt mit dieser heilenden Kanone ab. Die Länge hängt mit dem Pigment-Level des Patienten zusammen, also ob er braune Augen hat oder blaue. Helle, also blaue Augen, reflektieren mehr Laserlicht als dunkle. Sie brauchen daher längere Schüsse.
Drei Jahre lang hat Rossi im Rahmen seiner Doktorarbeit geforscht, den Auftrag hatte er vom lateinamerikanischen Konzern Opto bekommen. Es gibt allerdings auch andere Anbieter ähnlicher Systeme. Rossis Entwicklung hat den Praxistest bereits bestanden. Es ist bei 70 Augenärzten im Einsatz.
—
Guiliano Rossi
» Markus Thierbach beschäftigt sich aus freier Journalist mit Alltagsphänomenen. » Er bloggt auf www.besondersalltag.de |
“MR is much more than making images.”
Spätestens seitdem die Hirnforschung mit provokanten Thesen und faszinierend bunten Bildern auf sich aufmerksam machte, kennt man auch in der Öffentlichkeit die Aufnahmen, die die Magnet-Resonanz-Tomographie liefern kann. Seit 25 Jahren gibt es diese Möglichkeit, Struktur und Funktion der Gewebe und Organe im Körper darzustellen – und das (im Gegensatz zu Computertomographen) ohne ionisierende Strahlung.
Doch nach wie vor gibt es ein herausragendes Argument für CTs: die Geschwindigkeit. Moderne Computertomographen (die teilweise mit parallelen Röntgenquellen arbeiten) fertigen in Sekundenbruchteilen die Bilder an. Für die üblichen MRTs, die man in unseren Kliniken findet, sind solche zeitlichen Auflösungen nicht möglich. Noch nicht.
Mehr Power, mehr Feldstärke
In den letzten 2-3 Jahren hat sich der Trend zu einer höheren Magnetfeldstärke fortgesetzt. (MRTs messen ja die Impulsveränderungen der Atomkerne, wenn ein Magnetfeld angelegt wird.) Und inzwischen sind Hochfeldgeräte mit Feldstärken von 3 Tesla fast schon Standard. Ganz aktuell legt man allerdings nochmal eine Schippe zu: mit 7-Tesla-MRTs sollen Bilder mit extrem hoher Auflösung neue Einblicke ins Körperinnere ermöglichen und auch feine Stoffwechselvorgänge (u.U. sogar auf zellulärer Ebene) sichtbar machen.
Die Vorteile der 7-Tesla-Systeme liegen – so erklärte heute Prof. Jürgen Hennig von der Uni Freiburg in seiner Keynote – auf der Hand: durch die höhere Feldstärke gibt es weniger Störsignale, weniger Rauschen und eine höhere Auflösung. Bislang gibt es weltweit gerade mal 2-3 Dutzend solcher Geräte. Besonders in der Erforschung von Herz-Kreislauf-Erkrankungen erhoffen sich die Wissenschaftler hier in der nächsten Zeit neue Erkenntnisse.
Und Jürgen Hennig war sich zum Abschluß seines Vortrages sicher: die Magnet-Resonanz-Tomographie löst Probleme und liefert nicht nur schöne Bilder.
—
Schnelligkeit: Immer noch die große Herausforderung bei den MRTs (Folie von Jürgen Hennig/Freiburg):
]]>Die beiden Software-Entwickler haben das Programm „ClearView” geschrieben, das an die Grafik-Maschinen in Computerspielen erinnert: Es wird nur der Teil einer Darstellung geladen, den der User gerade betrachtet – der Mediziner schaut sich etwa einen Arm an. Fokussiert er auf die Blutgefäße in der Hand, ersetzt diese Darstellung im Arbeitsspeicher die Daten des Arms. Der gesamte Datensatz wird also in kleine Pakete zerstückelt.
„Der Unterschied zu unserem Programm besteht darin, dass unsere Auflösung viel höher ist als etwa in aktuellen Computerspielen”, erklärt Thomas Fogal am Rande des Weltkongresses der Medizintechnik in München. Ärzte brauchen dank dieser Technik keine Highend-Geräte, um Tomographie-Aufnahmen im Detail betrachten zu können.
—
Details zu ihrem Ansatz gibt es in diesem PDF:
—
Thomas Fogal vor seinem Poster, auf dem er die Vorteile von “ClearView” präsentiert”:
» Markus Thierbach beschäftigt sich aus freier Journalist mit Alltagsphänomenen. » Er bloggt auf www.besondersalltag.de |
In der Datenbank sind alle Krankheiten des Patienten samt Verlauf, Untersuchungsresultaten und Behandlungen verzeichnet. Alles ist mit Hintergrundinformationen angereichert, sodass auch medizinische Laien die Zusammenhänge verstehen. „Das stärkt den Patienten”, sagte Fisher bei seinem Vortrag beim Weltkongress der Medizintechnik in München.
Die Patienten haben großes Interesse an ihren medizinischen Aufzeichnungen: „Ich weiß, was bei meiner Behandlung passiert, ich verstehe mehr,” fasst ein Studienteilnehmer zusammen. Fisher hat herausgefunden, dass sich besonders ältere Patienten mit PAERS informieren.
Sie fühlen sich besser vorbereitet für den Arzttermin, um in der kürze der Zeit sich optimal mit dem Mediziner austauschen zu können. Das stärkt das Vertrauen in die Behandlung. Die Patienten nutzen die Datenbank auch nach dem Arzttermin: Habe ich alles richtig verstanden? Welche Empfehlungen habe ich erhalten?
Fisher: „Wir gehen davon aus, dass in fünf Jahren die meisten Praxen ihren Patienten Zugang zu ihren persönlichen Krankenakten anbieten werden.” Die Hürde dabei liegt nicht bei den Patienten. Sie sorgen sich laut der Studie kaum um die Sicherheit ihrer Daten. Es sind eher die Mediziner, die eine Zunahme der Patientenbesuche wegen banaler Beschwerden befürchten. Laut Fisher hat sich diese Befürchtung in den USA, wo ähnliche Datenbanken wie PAERS existieren, jedoch nicht bestätigt.
» Markus Thierbach beschäftigt sich aus freier Journalist mit Alltagsphänomenen. » Er bloggt auf www.besondersalltag.de |
Wenn man von Hyperthermie spricht, so kommt einem immer Manfred von Ardenne in den Sinn. Der egozentrische Wissenschaftler propagierte seine systemische Krebs-Mehrschritt-Therapie in den 60er und 70er Jahren. Die Erfolge waren freilich bescheiden.
In den letzten 15 Jahren hat sich auf dem Gebiet allerdings einiges getan. Deutschland und v.a. die Niederlande haben sich zu Zentren der Hyperthermieforschung entwickelt. Klar ist inzwischen – so auch die eindeutige Aussage in der Hyperthermie-Session am heutigen vormittag – , daß die Erwärmung des Tumors nur in Kombination mit einer klassischen Strahlen- oder Chemotherapie sinnvoll ist. Als eigenständiges Verfahren taugt sie nicht.
Mehr Kontrolle, mehr Zielgenauigkeit, mehr Wärme
Studien aus Rotterdam oder auch Berlin zeigen, dass die hohen Temperaturen (das Gewebe wird idealerweise auf 40-44°C erhitzt) zu einer verstärkten Durchblutung im Tumorgewebe führen und somit die Effizienz einer parallel verlaufenden Chemo- oder Strahlentherapie erhöhen. (Bei 40-41°C tritt ein gewisser strahlensensibilisierender Effekt auf. Die Tumorzellen sind weniger gut in der Lage die Schäden durch eine Strahlentherapie zu reparieren und sprechen insofern besser an. Ab 42°C kann die Überhitzung direkt zum Krebszelltod führen. Es werden so genannte Hitzeschockproteine (HSP / Stresseiweiße) gebildet, die als Signal für die körpereigene Immunabwehr dienen, die die jeweiligen Zellen dann angreifen.)
Das größte Problem ist bis heute die zielgenaue Erhitzung des Tumorgewebes, ohne Hotspots außerhalb.
Das größte Problem stellt allerdings bis heute die zielgenaue Erhitzung des fraglichen Gewebes dar. Einerseits wird mit den gängigen Applikatoren meist nur eine ungleichmäßige Temperaturverteilung erzielt. Erforderlich bzw. wünschenswert wäre aber eine möglichst homogene Hyperthermie von 40°C (oder mehr) im gesamten Zielvolumen.
Peter Wust (Radio-Onkologe von der Charite Berlin und einer der führenden Forscher in diesem Gebiet) machte in seinem Vortrag mehrmals klar: das Maximum der Wärme muß in den Tumor, Hotspots außerhalb müssen vermieden werden. Doch im Gegensatz zur Bestrahlung ist die Zielgenauigkeit der Hyperthermie-Geräte leider noch nicht befriedigend. Wust arbeitet mit seinem Team daran – das ist (so wurde in seinem Vortrag deutlich) Fleißarbeit. Immer wieder gilt es an Modellorganismen die berechnete Temperaturverteilung mit der tatsächlich erzielten Erhitzung abzugleichen, über MR-Scans zu kontrollieren und die Antennen entsprechend zu justieren etc.
Inzwischen ist es Wust gelungen, seinem Ziel näher zu kommen, wie er in seiner Präsentation anhand mehrerer Beispielaufnahmen zeigte (Optimization of Clinical Radiofrequency Hyperthermia by Use of MR-Thermography in a Hybrid System). Man darf also gespannt sein, ob man aus dieser Richtung in den nächsten Jahren noch hören wird. Nun sind (neben weiteren Optimierungsmaßnahmen) erstmal weitere klinische Studien notwendig, die den Mehrwert einer Hyperthermie belegen. Dann ist Hyperthermie vielleicht wirklich eine Option. Ein Instrument im konzertierten Kampf gegen Krebs.
—
Links die berechnete, rechts die tatsächlich erzielte Wärmeverteilung (Folie aus dem Vortrag von Prof. Peter Wust):
]]>Aber der Reihe nach: denn eigentlich begann die ganze Geschichte ja vor schon vor Jahrmillionen. Denn so lange schwimmt die Quallenart “Aequorea Victoria” schon durch den Pazifischen Ozean. Ihre Besonderheit ist die Biolumineszenz. Dank eines fluoreszierenden Proteins leuchtet die Qualle blau. Und damit nahm die Geschichte ihren Anfang, an deren vorläufigem Ende die Forschungsarbeiten von Roger Tsien stehen.
Tsien hatte – wie hier auf ScienceBlogs schon beschrieben – die Arbeiten seines Kollegen Shimomura weitergetrieben und schließlich nicht nur das grün fluoreszierende Protein, sondern ein ganzes Spektrum an Fluoreszenzmarkern entwickelt, die aus der biotechnologischen Forschung nicht mehr wegzudenken sind.
Die neuen Pläne des Nobelpreisträgers
Seine mit dem Nobelpreis gewürdigte Leistung reicht ja eigentlich schon für ein Forscherleben, aber für Tsien ist dieser Erfolg kein Grund sich zurückzulehnen oder sich gar als etwas besseres zu fühlen. Er sieht sich – wie er letztes Jahr zur Auskunft gab – lediglich als derjenige, der anderen Kollegen adäquate Hilfsmittel für deren Forschung zur Verfügung stellt. Oder wie Tsien sagte: “I’m just the guy, who makes the tools.”
Nobelpreisträger Tsien: “I’m just the guy, who makes the tools.”
Irgendwie logisch, daß so einer (der offenbar eher zum Understatement in eigener Sache neigt) bei seinem Vortrag nicht müde wird, all die Kollegen und Mitarbeiter aufzuzählen, die irgendeinen Beitrag zu seiner Forschungsarbeit geleistet haben.
Und diese Arbeit läuft bei Roger Tsien und seinem Team weiter auf Hochtouren. Allerdings beschäftigt er sich seit einiger Zeit nicht mehr mit den ursprünglichen Fluoreszenzproteinen, sondern mit der Entwicklung synthetischer Moleküle, die keinen Gentransfer erfordern, kleiner als GFP und Co. sind und einen klinischen Einsatz ermöglichen.
Und welche Zielsetzung er dabei im Auge hat, illustrierte Tsien mit eindrucksvollen Bildern. Es ist nämlich die (operative) Krebstherapie, die er im Auge hat und von der er hofft, dass seine Arbeit sie ein Stück weit revolutionieren kann.
Tsien demonstrierte anhand verschiedener Folien, wie zielgenau sich fluoreszierende Moleküle an Krebsgewebe andocken lassen. Und genau diesen Effekt will er sich zu Nutze machen: denn wenn das Tumorgewebe auf diese Weise zum “leuchten” gebracht werden könnte, dann könnte für die Chirurgie eine neue Ära beginnen. Die Vorteile einer optimalen operativen Krebstherapie liegen für Tsien auf der Hand: “Tumors cannot aquire resistance to resection”, stand auf einer seiner Folien.
Wenn es gelingt mit floureszierenden Molekülen Tumore zu markieren, dann kann gesundes Gewebe geschont und das Krebsgewebe vollständig entfernt werden. Die Bilder sprechen für sich (in grün die fluoreszierenden Tumorzellen):
Im Gegensatz dazu das selbe Gewebe unter weißem Licht:
Tsien ist jedenfalls anzumerken, wie wichtig ihm die Sache ist. Der Professor aus San Diego hat noch einiges vor. Wenn es ihm gelingt, die “Molecular Fluorescence Guided Surgery” auf den Weg zu bringen, soll es uns allen wohl recht sein.
—
Hier Tsiens Folie vom gestrigen Abend:
]]>Am heutigen vormittag widmete sich etwa eine mehrstündige Session den Fragen der medizinischen Strahlenbelastung. Daß eine normale Röntgenuntersuchung eine gewisse Strahlenbelastung mit sich bringt ist ja bekannt; seitdem freilich die Ära der Computertomographen Einzug gehalten hat, hat sich die Problematik allerdings verschärft. Während eine profane Röntgenaufnahme des Brustkorbs mit etwa 0,1 mSv zu Buche schlägt, liegt die Strahlendosis einer Thorax-CT bei rund 8 mSv. (Zum Vergleich: die natürliche Strahlenbelastung liegt ungefähr bei 3 mSv pro Jahr.)
Nun ist das kein Grund, eine notwendige CT-Untersuchung abzusagen; für die Mediziner und Ingenieure stellt sich allerdings die Frage, wie man diese Strahlenbelastung reduzieren kann. H.M. Olerud aus Oslo stellte die Ergebnisse einer großen norwegischen Studie vor (Lessons learned from 25 years in exploring Norwegian radiology practices from a radiation protection point of view.)
Norwegen mit seinen 4,5 Millionen Einwohnern ist hier ein interessanter Fall, da schon sehr früh in vielen Kliniken der ersten CT-Generationen angeschafft wurden. Die Verfügbarkeit dieser Apparate führte dann in den 90er Jahren zu einer deutlichen Zunahme der durchschnittlichen Strahlenbelastung der Bevölkerung.
In Norway, totally 910 radiological examinations per 1000 inhabitants were performed in 2002, a 15 % increase since 1993 (dental X-ray excluded). The frequencies of MRI, CT, and ultrasound did increase by a factor of 11, 2 and 0.5, respectively in that period, while the use of conventional X-ray examinations was almost unchanged (fig.1). Consequently the total collective effective dose increased with 40%, that gave 1.1 mSv per inhabitant in 2002.
Allerdings gibt es bestimmte Regionen, die durch deutlich geringere Werte auffallen und in denen die Strahlenbelastung immer weiter sinkt. Der Grund: einerseits arbeiteten dort die Radiologen gemäß den Richtlinien von z.B. der “International Commission on Radiological Protection (ICRP)”, die bestimmte Standards vorgibt, was u.a. die Untersuchungsintervalle betrifft. Andererseits – und hier zeigt sich dann doch wieder, wie wertvoll Innovationen sind – kommen in Norwegen immer mehr MRTs zum Einsatz, die eben ohne potentiell schädliche ionisierende Strahlung arbeiten.
Die Ausbildung und das Wissen der Ärzte hinkt viel zu oft hinter dem Fortschritt der Apparate hinterher.
Und genau diese beiden Aspekte sind wohl der Schlüssel zu einer risikoarmen und zeitgemäßen Diagnose: erstens die Weiterentwicklung der bildgebenden Verfahren (die neuste MRT-Generation kennzeichnet sich durch eine deutlich bessere Auflösung und – bei modernen Multikanalsystemen – durch die Fähigkeit auch schnelle Bewegungen darstellen zu können.) und zweitens die Schulung des medizinischen Personals, was den sinnvollen Einsatz und die Auswahl der zur Verfügung stehenden Mittel betrifft.
Wobei genau hier vermutlich das Hauptproblem liegt: die Innovationsgeschwindigkeit der Medizintechnik nimmt weiter zu; der Ausbildungsstand viel zu vieler Ärzte kann damit kaum mithalten und die Bereitschaft und Möglichkeit, sich adäquat fortzubilden, ist oft nicht gegeben. Und daran kann dann auch die beste Technik nichts ändern…
]]>ScienceBlogs: Eines der Hauptthemen der Tagung ist die Onkologie und die Strahlentherapie, wo auch Sie selbst ihren Arbeitsschwerpunkt haben. Gibt es möglicherweise neue, vielversprechende Ansätze im Bereich der radiologischen Tumortherapie?
Wolfgang Schlegel: Einige davon hatte ich ja gestern schon genannt: Die spannenden neuen Ansätze sind vor allem die bildgeführte Strahlentherapie und die Strahlentherapie mit Ionen (Protonen, Hadronen). In Deutschland gehen in diesem Jahr voraussichtlich 3 Anlagen in Betrieb: München (Rinecker, Protonen, ist schon angelaufen), Uni Heidelberg (HIT, Schwere Ionen) und in Essen (WPE, Protonen).
ScienceBlogs: In der Öffentlichkeit wird häufig von der unpersönlichen Apparatemedizin gesprochen, die außerdem unverhältnismäßig hohe Kosten verursache. Mit welchen Argumenten können Sie dieser Kritik entgegentreten?
Dass die Apparatemedizin zu hohe Kosten verursacht, sieht nur auf den ersten Blick so aus. Betrachtet man die Medizintechnik etwas differenzierter und vor allem aus gesundheits-ökonomischer Sicht, dann werden eher Kosten eingespart.
Wolfgang Schlegel: Dass die Apparatemedizin zu hohe Kosten verursacht, sieht nur auf den ersten Blick so aus. Betrachtet man die Medizintechnik etwas differenzierter und vor allem aus gesundheits-ökonomischer Sicht, dann werden eher Kosten eingespart: Viele Untersuchungen und Behandlungen sind durch moderne Medizintechnik schonender und effizienter geworden, d.h. sowohl Lebenserwartung als auch Lebensqualität haben sich immer weiter verbessert, behandlungsbedürftige Nebenwirkungen werden verringert.
Gerade auf meinem Gebiet, der Radioonkologie gibt es hierfür Beispiele: Wenn bei einer Bestrahlung eines Tumors im Kopf/Halsbereich mit moderner Präzisionsstrahlentherapie eine (bisher unumgängliche) Mitbestrahlung der Speicheldrüsen vermieden werden kann, kann als Folge auch Zahnausfall vermieden werden, und es können dadurch erhebliche Kosten für Zahnprothetik eingespart werden, die die ursprünglichen Behandlungskosten deutlich überstiegen hätten.
Weiterhin kann man argumentieren, daß die durch Medizingeräte verursachten Kosten nur einen sehr geringen Prozentsatz (höchstens 5-10%) der Gesamtkosten des Gesundheitswesens ausmachen (siehe z.B. Wikipedia: Medizintechnik, Kosten), der Hauptanteil setzt sich aus Medikamenten und Personalkosten zusammen.
]]>Insgesamt 631 Experten wurden für die Studie vom VDE befragt und die Auswertung hält einige interessante Einsichten bereit. Etwa wenn es um den Stellenwert einzelner Schlüsseltechnologien geht, die die Medizintechnik (die ja auf Interdisziplinarität basiert) vorantreiben.
Expertenmeinung: Computerwissenschaften sind Schrittmacher der Medizintechnik
Ein Drittel der Experten gab jedenfalls zur Auskunft, dass den Computerwissenschaften im Konzert der einzelnen Disziplinen die Führungsrolle zukommt. Dahinter rangieren die Zell- und Biotechnologien, die ebenfalls als sehr wichtig eingestuft werden.
Ebenfalls interessant ist, dass ebenfalls ein Drittel der Befragten darin übereinstimmte, dass fehlende Fördergelder das größte Innovationshindernis darstellen. In Deutschland ist diese Ansicht übrigens weniger stark verbreitet. Möglicherweise trägt hier die engagierte Förderpolitik des BMBF der letzten Jahre Früchte?
Vor allem in Osteuropa werden bürokratische Hürden als Innovationsbremsen genannt; in anderen westeuropäischen oder nordamerikanischen Regionen wird dagegen eher über komplizierte Zulassungsverfahren lamentiert.
Innovationsfelder der Medizintechnik
Doch in welchen Bereichen erwarten uns am ehesten spannende Fortschritte? Unzweifelhaft stehen hier die Weiterentwicklungen der bildgebenden Verfahren an vorderster Front. Die Technologieführerschaft haben hier derzeit noch die USA und Europa inne. Und die neuen Möglichkeiten von Tomographen und Co. werden – so die Erwartung – nicht nur die Diagnosemöglichkeiten verbessern, sondern gleichzeitig direkt in der Therapie zur Anwendung kommen. Professor Olaf Dössel von der Uni Karlsruhe erinnerte bei der heutigen Pressekonferenz an die Optionen einer bildgeführten Chirurgie, die in einer Spielart minimal-invasiv sein kann, dann wieder als roboter-assistierte Chirurgie zur Anwendung kommt.
Ein weiteres Innovationsfeld – so die Expertenmeinung – ist der Bereich von Prothesen und Implantaten. Hier sind aktive und passive Implantate zu unterscheiden. Neuerungen, die für die Patienten hoffentlich gewinnbringend sind, betreffen etwa die “Kommunikationsfähigkeit” von heutigen (Herz-)Schrittmachern, die heute bereits mit externen Systemen Daten austauschen.
Ein weiteres Schlagwort sind regenerative Implantate, die v.a. im Stütz- und Bewegungsapparat den Ersatz von Knochen und Knorpeln durch gezielte Züchtung körpereigener Knorpel ermöglichen sollen. Und schließlich ist in diesem Feld auch von den Neuroimplantaten die Rede: das Cochlea-Implantat kennen wir nun seit 20 Jahren, das Retina-Implantat wird kommen. Das ist die Zukunftsmusik, die man in Kreisen der Medizintechnik gerne hört.
]]>Kongresspräsident Prof. Dr. Wolfgang Schlegel (DKFZ Heidelberg) hat uns netterweise einige besonders spannende Themen und Vorträge aus dem Programm gepickt:
ScienceBlogs: Sehr geehrter Herr Professor Schlegel, auf dem Weltkongress der Medizintechnik werden in dutzenden Vorträgen neue Entwicklungen im Bereich der Medizintechnik präsentiert. Gibt es bestimmte Highlights des diesjährigen Programms, die in ihren Augen besonders beachtenswert sind?
Wolfgang Schlegel: Aus medizin-physikalischer Sicht sehe ich die Highlights auf den Gebieten der modernen medizinischen Bildgebung (Weiterentwicklung von diagnostischen Verfahren mit Röntgenstrahlen und MR) und der Therapie (hier vor allem der Krebstherapie mit neuen Strahlenarten), aber ganz besonders auch im Überlappungsbereich Bildgebung/Therapie: Die Therapie der Zukunft liegt in der Verknüpfung von Bildgebung und Therapie und damit in einer wesentlich schonenderen und effizienteren Behandlung.
Es ist natürlich sehr schwierig, aus der Fülle der eingereichten Beiträge (fast 1400 aus dem Bereich der Medizinischen Physik) die echten Highlights nur aufgrund der Titel und Abstracts herauszusuchen, ich versuche es aber trotzdem mal:
Die Therapie der Zukunft liegt in der Verknüpfung von Bildgebung und Therapie und damit in einer wesentlich schonenderen und effizienteren Behandlung.
Diagnostische Bildgebung: Eine Entwicklung, die noch am Anfang steht, von der man aber einiges erwarten kann, ist die Weiterentwicklung des altbekannten Röntgens in das “Phasen-Kontrast-Röntgen”. Die Entwicklung kann man sich analog zur Lichtmikroskopie oder Elektronenmikroskopie vorstellen, wo durch “Phasenkontrast-Technik” auch eine neue Dimension erschlossen wurde. Das Problem, die Phasenkontrasttechnik auf Röntgenstrahlen zu übertragen, scheiterte bisher an der Verfügbarkeit leistungsstarker, monoenergetischer Röntgenquellen (man musste auf Synchrotronstrahlung zurückgreifen, die nur an den großen Beschleunigerzentrum wie z.B. Hamburg oder Grenoble verfügbar war), und an der Nichtexistenz einer “Röntgenoptik”. Für beide Probleme scheinen sich jetzt Lösungen anzubahnen, und auf dem Kongress werden hierzu von 2 Münchner Gruppen Vorträge gehalten (Phase-Contrast and Dark-Field Imaging: Advanced Contrast Modalities in X-Ray Radiology. Von: F. Pfeiffer, M. Bech, T. Jensen, O. Bunk, T. Donath, C. David, sowie Phase contrast imaging for medical diagnostics: towards clinical application with compact laser-based X-ray sources von P. Coan, P.C. Diemoz, A. Bravin, T. Schlossbauer, M. Reiser, D. Habs, T. Schneider and C. Glaser)
Wenn diese Entwicklungen erfolgreich vorangetrieben werden, kann man von einer weiteren deutlichen Verbesserung der bildgebenden Diagnostik im Sinne einer gesteigerten Kontrastauflösung im Weichteilgewebe (z.B. bei der Diagnostik von Brustkrebs) ausgehen.
Therapie: Weit über die Hälfte der deutschen Medizinphysiker (und das gilt auch international) arbeiten in der Strahlentherapie bei der Behandlung von Krebs mit. Entsprechend ist auch das Gebiet der Weiterentwicklung der Strahlentherapie und die Rolle der Medizinphysiker hierbei ein wichtiges Schwerpunktsthema des Kongresses.
In der Strahlentherapie vollzieht sich zur Zeit ein Wandel durch die Integration bildgebender Verfahren in den Behandlungsablauf. Es gibt eine ganze Reihe von Innovationen, die darauf abzielen, die Zielgenauigkeit der Strahlentherapie zu verbessern. Die Idee ist es, den Tumor während der Bestrahlung durch bildgebende Verfahren sichtbar zu machen und Tumorbewegungen und Verschiebungen zu verfolgen. Wenn der Tumor aus dem Bestrahlungsfeld wandert, wird die Bestrahlung (kurzzeitig) unterbrochen („gating”), oder der Strahl wird kontinuierlich nachjustiert („tracking”). Über aufsehenerregende Entwicklungen auf diesem wird auf dem Kongress z.B. durch die folgenden Beiträge berichtet:
Die von Speiser et al. beschriebene Entwicklung (Siemens in Zusammenarbeit mit der Firma XinRay-Systems) beschreibt eine Anordnung von 52 Nano-Röntgenröhren, die an einem Strahlentherapie-Linearbeschleuniger angebracht sind und zur „On-Line-Bildgebung” während der Strahlentherapie eingesetzt werden sollen. Auf diese Weise könnte man einen sich während der Therapie bewegenden Lungen- oder Prostata-Tumor sichtbar machen und die Bewegungen korrigieren.
Die von Maltz et al. beschriebene Entwicklung (Zusammenarbeit der Firmen Brainlab/München und Mitsubishi Japan) beinhaltet einen Beschleuniger der auf einer Ring-Gantry geführt wird (ähnlich wie ein CT) und mit 2 Röntgenröhren und Flächendetektoren ausgerüstet ist.
Beide Lösungen haben das Potential, die Strahlentherapie wesentlich genauer zu machen, vor allem bei beweglichen und deformierbaren Tumoren.
Ein weiteres Highlight der Tagung ist sicher die Hadronen- oder Ionentherapie.
Ein weiteres Highlight der Tagung ist sicher die Hadronen- oder Ionentherapie. Hier geht es darum, zur Behandlung von Krebs statt der bisher eingesetzten Röntgenstrahlung Teilchenstrahlung in Form von beschleunigten Protonen oder schwereren Ionen-Kernen (z.B. C-12 oder O-16-Atomkernen) einzusetzen. Da man mit diesen Strahlenarten die Strahlendosis besser auf das Tumorgewebe konzentrieren und das notwendigerweise durchstrahlte gesunde Gewebe besser schonen kann, gilt die „Hadronentherapie” als sehr zukunftsträchtig, aber wegen der notwendigen grossen Beschleuniger (Zyklotrons oder Synchrotrons) auch als sehr teuer. Das Gebiet wird auf dem Kongress in 3 Sitzungen behandelt, und es wird neben Erfahrungsberichten mit der Protonen- und Ionentherapie vor allem die Entwicklung neuer Beschleunigungsarten durch hochenergetische Laser gesprochen:
Solche Beschleuniger sind allerdings noch Zukunftsmusik. Wenn sie sich realisieren lassen, und alle Vorversuche und Prototypen deuten darauf hin, wird das einen Paradigmenwechsel in der Strahlentherapie verursachen, und mit Sicherheit zu einem weiteren Qualitätssprung in der Tumortherapie führen. Und hier schließt sich der Kreis zur bildgebenden Diagnostik wieder: Die Laser-Beschleuniger können auch für Elektronen eingesetzt werden und damit neue Möglichkeiten der Röntgen-Bildgebung eröffnen. Das wird auch in dem eingangs erwähnten Beitrag der Gruppe „Munich Centre for Advanced Photoncs” skizziert: (siehe Coan et al. auf der ersten Seite).
Ich hoffe, ich habe Ihnen mit dieser kleinen Skizze einen kleinen Einblick in die Gebiete geben können, die aus meiner Sicht besonders spannend sind. Eine solche Sichtweise ist natürlich immer unvollständig und persönlich gefärbt.
Spannend sind weiterhin die verschiedenen medizinischen Anwendungen der „Nanopartikel” in Diagnostik und Therapie, dazu gibt es ganze Serien von Vorträgen.
]]>Alle drei Jahre ist es soweit: die Welt der Medizintechnik lädt zum Branchentreffen, bei dem hunderte Fachvorträge über neue Diagnose- und Therapieverfahren informieren und in weit mehr als 1.000 Postern spannende Innovationen vorgestellt werden.
Alle drei Jahre ist der Weltkongress die interdisziplinäre Plattform, bei der sich Mediziner und Experten aus Technik und Naturwissenschaft austauschen. Zuletzt fand der “World Congress on Medical Physics and Biomedical Engineering” in Seoul, Sydney und Chicago statt.
Schwerpunktthemen 2009: Onkologie, Radiologie, Chirurgie, Neurologie und Kardiologie
Es verspricht also wirklich eine spannende Kongresswoche zu werden. Den Startschuß wird Bundesforschungsministerin Dr. Annette Schavan geben; für die deutschen Unternehmen, die in vielen medizintechnischen Bereichen weltweit Spitzenpositionen belegen, spricht der CEO von Siemens Healthcare (Prof. Dr. Hermann Requardt). Und Nobelpreisträger Roger Y. Tsien steht bei der Eröffnung quasi für die wissenschaftliche Exzellenz.
Über die spannendsten Vorträge und einige andere Highlights aus dem Tagungsprogramm wird hier bei ScienceBlogs berichtet.
Detaillierte Informationen zum vielfältigen Programm gibt es auf der offiziellen Website:
]]>