Terug

Beeldgestuurde navigatie voor robotische chirurgie
Nanda van der Stap

19 december 2016

(Laatst aangepast: 06-06-2020)

Beeldgestuurde navigatie voor robotische chirurgie

Publicaties

Wie kent hem niet: de Da Vinci operatierobot van het Amerikaanse bedrijf Intuitive Surgical? En deze staat niet meer alleen, er zijn inmiddels veel meer robotisch ondersteunde apparatuur, zoals bijvoorbeeld endoscopische camerahouders [1] en systemen voor microchirurgie [2]. Er is een waterval aan wetenschappelijke literatuur beschikbaar over de mogelijke voor- en nadelen, dus daar zal het in dit artikel verder niet over gaan. Voor- of tegenstander, feit is dat robotica in opkomst is, ook in de medische wereld. Van 2009 tot 2015 is in het Meander Medisch Centrum en de Universiteit Twente gewerkt aan een beeldgestuurd systeem dat net als de Da Vinci het de arts mogelijk moet maken om op afstand te opereren. Het verschil is echter dat dit hele systeem erop is gebouwd om te werken met flexibele endoscopen. Dit artikel zal ingaan op het gebruik van beelden om dit systeem automatisch aan te sturen, iets dat ook bekend staat als image-guided surgery (beeldgestuurde chirurgie). Daarna zullen een aantal lessons learned worden bediscussieerd.

Teleflex

In 2009 startte aan de Universiteit Twente een Europees project, genaamd Teleflex, dat de ontwikkeling voor een robotisch systeem waarmee met flexibele endoscopen geopereerd kon worden beschreef. Uiteindelijk was het doel van het ontwikkelen van dit systeem natuurlijk vergelijkbaar met vele medische innovaties: het leven van de patiënt een stukje beter maken. Het idee was dat een arts beter in staat gesteld zou worden om (kleine) ingrepen te doen met een flexibele endoscoop, wat de patiënt de ellende van een grotere operatie mogelijk zou kunnen besparen.

 

Vrij snel na de start van dit project ontstond echter al een spin-off project: als het namelijk voor de chirurg mogelijk was om de endoscooptip robotisch en op afstand te besturen, zou dit het dagelijks leven van de endoscopist ook makkelijker kunnen maken. Hierbij werd dan met name gericht op diagnostiek en therapie van early stage gastrointestinale lesies. Uitdagingen waren er niet alleen in technologisch opzicht (de dynamica van een flexibel robotisch systeem is vele malen complexer dan dat van een rigide robotisch systeem zoals de Da Vinci robot), maar ook in klinisch opzicht (hoe past zo’n nieuw systeem in de huidige klinische workflow?).

 

Het systeem werd ontwikkeld, en een aantal interessegebieden voor onderzoek werden geïdentificeerd:

  • Systeemontwerp (met name door Jeroen Ruijter)
  • Robotische ontwikkeling (met name door Rob Reilink)
  • Ontwikkeling van beeldsturing (met name door Nanda van der Stap)
  • Implementatie in de kliniek (met name door Esther Rodijk-Rozeboom)

Dit artikel zal verder de ontwikkelde principes op het gebied van beeldsturing bespreken. Vervolgens wordt er een kritische review gegeven op het onderzoek, met als doel wat meer generieke ‘lessons learned’ te delen met andere professionals die met dit vakgebied te maken hebben of krijgen.

TeleflexHet Teleflex systeem is nu onderdeel van de Demcon Advanced Endoscopy lijn (https://www.demcon.nl/showcase/advanced-endoscopy-project/).

Camerabeweging, doelrichting en camerafixatie

Binnen het onderzoek is gekeken naar haalbaarheid van software toepassingen en verbeteringen voor het eerder ontwikkelde robotisch endoscopiesysteem. Deze toepassingen richten zich met name op het vergemakkelijken van sturing en navigatie van de endoscoop [3].

 

Allereerst is er een algoritme ontwikkeld met als doel het in kaart kunnen brengen van de huidige bewegingsrichting van flexibele endoscopen. Die kennis is van belang voor het autonoom navigeren van een robotische endoscoop. De verplaatsing van beeldpunten tussen twee afbeeldingen is automatisch te bepalen met behulp van een techniek die optical flow heet [4], [5]. De patronen die te zien zijn in deze optical flow zijn gebruikt om de cameraverplaatsing te berekenen. Aangezien de camera van een endoscoop op de tip is gelokaliseerd, staat de cameraverplaatsing gelijk aan de tipverplaatsing, oftewel de bewegingsrichting van de endoscoop. Echter, zowel de endoscoop als de omgeving zijn flexibel en beweeglijk in deze procedures, en de geproduceerde beelden zijn verre van ideaal. Daarmee is het schatten van de camerabeweging een grote technische uitdaging.

 

Ten tweede is er een detectiealgoritme ontwikkeld dat de doelrichting van de endoscoop, oftewel het midden van het orgaan dat hij inspecteert, automatisch vindt. Het ontwikkelde algoritme is geïmplementeerd in het robotische endoscopieplatform en verschillende gebruikersgroepen (zeer ervaren artsen uit het Meander Medisch Centrum in Amersfoort, en studenten zonder ervaring) zijn gevraagd om een gesimuleerde colonoscopie uit te voeren met het systeem [6]. De resultaten zijn veelbelovend; hoewel er verbeteringen in experimentopzet en het systeem zelf nodig zijn, waren de meeste gebruikers positief over het systeem en de toepassingen. De onervaren gebruikers vonden het nieuwe systeem veel gemakkelijker te gebruiken dan een conventionele flexibele endoscoop.

 

Als laatste is er een algoritme ontwikkeld, geïmplementeerd en gevalideerd dat de endoscoop kan fixeren op een willekeurig gekozen doelgebied tijdens interventies [7]. Een doelgebied kan bijvoorbeeld een poliep zijn. Als deze worden aangetroffen moeten ze vervolgens veelal worden verwijderd. In het geval van wat grotere poliepen kan de interventie zelf wel even duren. Het zou daarom erg handig zijn als de endoscoop het operatiegebied in beeld houdt terwijl de arts de instrumenten kan bedienen. De interventies waaraan bijvoorbeeld wordt gedacht zijn (voor de kenners): ERCP’s, ESD’s en EMR’s.

 

Handmatige initialisatie van het algoritme zorgt ervoor dat een arts op elk willekeurig doelgebied kan fixeren. Qua tijd levert dat geen probleem op, zeker niet bij langere therapeutische procedures. Het ontwikkelde algoritme is in-vitro getoetst op robuustheid en nauwkeurigheid in beeldsequenties van endoscopische interventies.

Discussie

Uiteindelijk kunnen algoritmes zoals ontwikkeld binnen Teleflex worden gebruikt om de tip van de endoscoop automatisch te corrigeren via het eerder ontwikkelde robotische platform. De afgelopen jaren zijn meer en meer van deze systemen op de markt gekomen, zoals bijvoorbeeld het Autolap systeem [8] en systemen voor robotische oogchirurgie [9]. Er ontstaan nieuwe mogelijkheden voor diagnostiek en therapie als deze technologie geïncorporeerd kan worden in de klinische praktijk. Echter, daar zit ook precies de crux: de implementatie in de klinische praktijk. Hier zijn meerdere lessen geleerd die de moeite waard zijn even te noemen.

 

Tijdens het ontwikkelen van Teleflex zijn een aantal belangrijke eisen gedefinieerd waaraan een nieuwe technologie, of in ieder geval een robotische technologie, moet voldoen om toegevoegde waarde te hebben in de kliniek:

  1. De techniek maakt iets mogelijk dat nu niet kan, óf
  2. De techniek versimpelt iets dat nu wel kan zodanig, dat het significant beter is voor de arts/overige behandelaars of de patiënt.

Indien aan één van deze eisen niet wordt voldaan, zal een technologie niet worden geadopteerd in de medische praktijk.

 

Mocht er een fantastisch idee ontstaan voor zo'n technologie, denk dan op tijd na over een implementatiestrategie. Hiermee wordt bedoeld: inventariseer goed wat de echte klinische situatie is, en het echte probleem. Betrek (technisch georiënteerde) gebruikers vanaf het begin én doorlopend. Het meekijken met één operatie is niet genoeg. Stuur bij waar nodig, het eerste idee staat nooit gelijk aan het eindproduct.

 

Ook een korte scan van wat de relevante marktpartijen zijn is handig, om concurrerende oplossingen in kaart te brengen. Bedenk eventueel of de zelfbedachte nieuwe technologie door één van deze partijen gekocht zou moeten worden. Indien dat laatste, overweeg dan allereerst om een patent aan te vragen. Zonder patent zijn grote marktpartijen sowieso niet geïnteresseerd in de technologie, en zal het goede idee dus nooit in de klinische praktijk terecht komen.

 

Tot slot: indien een patent een optie is, publiceer dan niets over de technologie. Het lijkt triviaal, maar zelfs een presentatie voor collega's van andere afdelingen kan worden gezien als een publicatie.

 

Conclusie

Samenvattend laten de resultaten in het genoemde onderzoek zien dat beeldgestuurde navigatie bijdraagt aan de intuïtiviteit van de sturing van flexibele endoscopen. Echte klinische implementatie laat nog op zich wachten, maar met de komst van meer en meer robotgeassisteerde procedures is de inbedding van robotica en beeldsturing, ook op andere robotische systemen, slechts een kwestie van tijd. Met een aantal – vooral praktische – 'lessons learned' zouden toekomstige technologieën sneller geïncorporeerd kunnen worden in de klinische praktijk.

Met dank aan

Dit artikel was niet mogelijk geweest zonder promotor Prof.dr. I.A.M.J. Broeders, de genoemde mede-onderzoekers, en Prof.dr.ir. Stefano Stramigioli, alsmede de betrokken medewerkers van RAM aan de Universiteit Twente, Demcon en de staf van de afdelingen endoscopie en chirurgie van het Meander Medisch Centrum in Amersfoort.

  1. Prosurgics: FreeHand breakthrough surgical robot. Prosurgics Ltd, High Wycombe, United Kingdom. © Sagentia 2020. Bezocht op 6 juni 2020. https://www.sagentia.com/case-study/prosurgics-freehand-breakthrough-surgical-robot/
  2. Microsure – robot-assisted microsurgery. https://microsure.nl. © Microsure 2019. Bezocht op 6 juni 2020.
  3. N. van der Stap, F. van der Heijden, and I. A. M. J. Broeders, “Towards automated visual flexible endoscope navigation,” Surg. Endosc., vol. 27, no. 10, pp. 3539–47, 2013.
  4. N. van der Stap, R. Reilink, S. Misra, I. A. M. J. Broeders, and F. van der Heijden, “The Use of the Focus of Expansion for Automated Steering of Flexible Endoscopes,” in IEEE BioRob, 2012, pp. 13–18.
  5. N. van der Stap, R. Reilink, S. Misra, I. A. M. J. Broeders, and F. Van Der Heijden, “A feasibility study of optical flow-based navigation during colonoscopy,” Int. J. Comput. Assist. Radiol. Surg., vol. 7, no. S1, p. S235, 2012.
  6. H. J. M. Pullens, N. van der Stap, E. D. Rozeboom, M. P. Schwartz, F. Van Der Heijden, M. G. H. Van Oijen, P. D. Siersema, and I. A. M. J. Broeders, “Colonoscopy with robotic steering and automated lumen centralization: a feasibility study in a colon model,” Endoscopy, vol. eFirst, 2015.
  7. N. van der Stap, L. Voskuilen, G. De Jong, and J. M. Hendrikus, “A Real-Time Target Tracking Algorithm for a Robotic Flexible Endoscopy Platform,” in 2nd workshop on Computer-Assisted and Robotized Endoscopy, 2015.

Toon alle referenties

Auteur