Gezondheidsgegevens delen met AI-chatbots: een riskante afweging

5

Volgens OpenAI wenden nu meer dan 230 miljoen mensen zich tot AI-chatbots zoals ChatGPT voor gezondheidsadvies. Hoewel deze tools een gemakkelijkere toegang tot gezondheidszorgnavigatie en zelfverdediging beloven, is het een gok om hen gevoelige medische gegevens toe te vertrouwen. Technologiebedrijven hanteren andere regels dan medische zorgverleners, en gegevensbescherming is verre van gegarandeerd. De haast om AI in de gezondheidszorg te integreren roept serieuze vragen op over de privacy van gebruikers en de betrouwbaarheid van geautomatiseerd gezondheidsadvies.

De opkomst van AI in de gezondheidszorg

Twee grote spelers, OpenAI en Anthropic, hebben onlangs speciale AI-producten voor de gezondheidszorg gelanceerd. ChatGPT Health van OpenAI en Claude for Healthcare van Anthropic zijn bedoeld om gezondheidsgerelateerde vragen te stroomlijnen. Deze tools verschillen echter aanzienlijk qua beveiliging; OpenAI biedt een consumentenversie naast een beter beschermde bedrijfsoplossing, ChatGPT for Healthcare, wat tot verwarring leidt onder gebruikers die mogelijk hetzelfde beschermingsniveau verwachten. Google’s Gemini blijft grotendeels afwezig in deze push, maar het MedGemma -model is beschikbaar voor ontwikkelaars.

OpenAI moedigt actief het delen van gevoelige gezondheidsgegevens aan – medische dossiers, testresultaten, app-gegevens van Apple Health, Peloton, enz. – en belooft vertrouwelijkheid. Toch kunnen de servicevoorwaarden veranderen en is de wettelijke bescherming zwak. Het ontbreken van alomvattende federale privacywetten maakt gebruikers kwetsbaar en vertrouwt op bedrijfsbeloften in plaats van op afdwingbare normen.

De illusie van veiligheid

Zelfs met encryptie en beloofde privacyverplichtingen is het riskant om AI te vertrouwen met gezondheidsgegevens. De garanties van OpenAI worden vertroebeld door het bestaan ​​van ChatGPT for Healthcare, een bedrijfsgericht product met sterkere waarborgen. De vergelijkbare namen en lanceringsdata maken het gemakkelijk om de consumentenversie te verwarren met de veiligere versie, een fout die veel gebruikers al hebben gemaakt.

Bovendien kunnen bedrijven hun beleid inzake datagebruik op elk moment wijzigen. Zoals onderzoeker op het gebied van digitaal gezondheidsrecht Hannah van Kolfschooten opmerkt: “Je zult erop moeten vertrouwen dat ChatGPT zijn privacypraktijken niet verandert.” HIPAA-naleving, zelfs als dit wordt beweerd, garandeert geen handhaving. Het vrijwillig naleven van normen is niet hetzelfde als juridisch gebonden zijn.

De gevaren van verkeerde informatie

Naast privacy kunnen AI-chatbots ook onnauwkeurig of gevaarlijk gezondheidsadvies geven. Voorbeelden hiervan zijn chatbots die natriumbromide aanbevelen in plaats van zout, of die kankerpatiënten ten onrechte adviseren om vetten te vermijden. OpenAI en Anthropic wijzen de verantwoordelijkheid af voor diagnose en behandeling en classificeren hun hulpmiddelen als niet-medische hulpmiddelen om strengere regelgeving te vermijden.

Deze classificatie is twijfelachtig, aangezien gebruikers deze hulpmiddelen al gebruiken voor medische besluitvorming. OpenAI benadrukt gezondheid als een belangrijk gebruiksscenario en toont zelfs een kankerpatiënt die ChatGPT gebruikte om haar diagnose te begrijpen. De eigen benchmarks van het bedrijf suggereren dat de AI goed kan presteren in medische scenario’s, wat vragen oproept over toezicht door de toezichthouders.

Een kwestie van vertrouwen

Het kernprobleem is vertrouwen. De geneeskunde is niet voor niets zwaar gereguleerd: fouten kunnen fataal zijn. AI-bedrijven opereren echter in een sneller veranderende, minder gereguleerde omgeving. Hoewel AI de toegang tot gezondheidszorg zou kunnen verbeteren, heeft de sector nog niet hetzelfde vertrouwen verworven als traditionele medische zorgverleners.

Uiteindelijk is het delen van privégezondheidsgegevens met AI-chatbots een afweging tussen gemak en risico. Totdat er strengere regelgeving en afdwingbare privacynormen zijn ingevoerd, moeten gebruikers voorzichtig te werk gaan. Het huidige landschap geeft prioriteit aan innovatie boven veiligheid, waardoor individuen door een complexe en onzekere toekomst moeten navigeren.