Tekoälyn chattibotti voi kertoa omahoito-ohjeet flunssaan tai keksiä diagnoosin omasta päästään − lääkäriltä selkeät neuvot käyttöön
Maailmanlaajuisesti miljoonat ihmiset kysyvät viikoittain tekoälychattiboteilta apua terveyspulmiinsa.
Asiantuntijat suhtautuvat lääkärintakkiin sonnustautuneisiin chattibotteihin varauksella. Kuvituskuva arkistosta. LAURA UKKONEN / LEHTIKUVA.Ihmisten arkeen tuppautuneet tekoälypalvelut pyrkivät saamaan jalansijaa myös terveydenhoidossa.
Maailmanlaajuisesti miljoonat ihmiset kysyvät viikoittain tekoälychattiboteilta apua terveyspulmiinsa. Palveluiden kehittäjät vastaavat kysyntään, ja esimerkiksi tekoälypalvelu ChatGPT:n taustalla oleva OpenAI-yhtiö kertoi tammikuussa valmistelevansa terveysaiheisiin kysymyksiin perehtynyttä ChatGPT Health -palvelua.
Yhtiö lupailee suojaavansa ja salaavansa palvelun käyttäjän datan, mutta kehottaa lataamaan ChatGPT Healthiin esimerkiksi potilasasiakirjamerkintöjä ja laboratoriotuloksia.
Asiantuntijat suhtautuvat lääkärintakkiin sonnustautuneisiin tekoälybotteihin varauksella. Oulun yliopiston digitaalisen terveyden dosentti ja Lääkäriliiton Pohjois-Suomen piiriylilääkäri Timo Tuovinen sanoo, ettei tekoälypalveluille tulisi jakaa mitään, mitä ei jakaisi työpaikan kahvihuoneessa.
”Jakaisitko vaikka ne omat potilastiedot, printtaisit Omakannasta ja laittaisit ne työpaikan kahvihuoneen pöydälle? Minä en”, sanoo Tuovinen.
Kärjistettynä lääkäreiden työtä on parantaa ihmisten sairauksia, tekoälypalveluiden tarkoitus on tuoda niiden omistajayhtiöille mahdollisimman paljon rahaa.
Bottien vastaukset perustuvat valtavaan määrään niille syötettyä tietoa, joka voi olla peräisin mistä tahansa. Joukossa voi olla tiedekirjallisuutta, mutta myös esimerkiksi keskustelufoorumeilta tai chattibottien käyttäjiltä itseltään poimittua aineistoa.
Tuovinen ja Aalto-yliopiston koneoppimisen professori Arno Solin muistuttavat, ettei ilmaista lounasta ole. Jos botti on käyttäjälle ilmainen, todennäköisesti sen tuote on käyttäjä ja hänen tietonsa.
”Sitä, mitä syötät esimerkiksi sosiaaliseen mediaan, käytetään mainosten kohdentamiseen tai myydään eteenpäin. Chattiboteissa niitä tietoja, joita sinne syötetään, käytetään seuraavien kielimallien kouluttamiseen”, sanoo Solin.
Yhtenä syynä sille, miksi esimerkiksi ChatGPT Health pyytää käyttäjiltään potilasasiakirjamerkintöjä, voikin olla nimenomaan tekoälykielimallin koulutus. Kun ihmisten terveysdataa kertyy riittävästi, osaa botti antaa uusille käyttäjilleen yhä osuvampia vastauksia.
Perinteisesti ihmisten henkilökohtaiset terveystiedot ovat esimerkiksi sairaanhoidossa olleet kaikista parhaiten suojeltua ja varjeltua dataa.
Kielimalleihin perustuvat chattibotit rakennetaan niin, että niiden kanssa on mukavaa ja koukuttavaa keskustella. Niiden toiminta perustuu koulutusdatassa olevien rakenteiden oppimiseen ja toisaalta käyttäjäkokemuksen hiomiseen, mikä saa ne antamaan todennäköisiä mutta käyttäjäänsä miellyttäviä vastauksia.
”Tosimaailman päättelyyn nämä kielimallit eivät kykene, eivätkä ne vielä pysty ennakoimaan seurauksia. Ne voivat hairahtua puhumaan asioista, jotka eivät välttämättä siinä kohtaa ole olennaisia tai tosia”, sanoo Tuovinen.
Maailmalla on tapauksia, joissa chattibottien sanotaan kannustaneen itsemurhaa pohtineita ja siitä bottien kanssa keskustelleita nuoria toteuttamaan suunnitelmansa.
Botin antamiin vastauksiin voi vaikuttaa sillä, miten sille annetun kysymyksen muotoilee. Hyvin muotoillulla, tarkalla kysymyksellä saa todennäköisemmin järkevän vastauksen. Ympäripyöreällä kysymyksellä saatu vastaus voi olla täyttä huuhaata.
Uusimmat kielimallit on rakennettu pohtimaan vastausta. Ne kuitenkin lopulta vastaavat mieluummin vaikka päästään keksimällään vastauksella kuin sanovat, että eivät tiedä.
”Voi ajatella, että tämä on yläasteikäinen, joka menee kokeeseen ja osaa osan kysymyksistä. Niihin kysymyksiin, joihin hän ei tiedä vastausta, hän heittää hatusta jotakin, mikä voisi kuulostaa järkevältä”, tiivistää Solin.
Ihmisen terveys on monimutkainen asia ja sen toiminnan arviointi on hankalaa ulkoistaa tekoälylle. Ongelmia tulee siinä vaiheessa, jos chattibotin antamiin vastauksiin luottaa sokeasti.
Tekoäly ei kykene riskianalyysiin.
”Jos on vasen käsi kipeä, niin se voisi olla olkapäävaivaa. Mutta se voisi olla myös sydänkohtaus, jolloin lääkäri miettii, miten voisin poissulkea tämän. Työ on jatkuvaa riskianalyysiä”, sanoo Tuovinen.
Tekoälypalveluista voi olla myös hyötyä. Kukapa ei olisi esimerkiksi googlaillut oireitaan, ja yksinkertaisissa asioissa kuten flunssan itsehoidossa bottien neuvoista voi olla apuakin.
”On mahtavaa, että potilaat ovat kiinnostuneita omasta terveydestään, ovat motivoituneita, hakevat tietoa, pohtivat ja kysyvät asioita”, sanoo Tuovinen.
Solin muistuttaa, että joskus kiusallisista vaivoista voi olla helpompi puhua chattibotin kuin lääkärin kanssa. Toisissa tapauksissa oloa voi helpottaa pelkästään sekin, että ongelman saa sanoitettua joko toiselle ihmiselle tai tekoälylle.
Botti voi hyvässä tapauksessa toimia avaimena siihen, että käyttäjä hakeutuu avun piiriin esimerkiksi lääkärille. Muun muassa Lääkärilehti kehottaakin jo lääkäreitä kysymään potilailtaan, ovatko he keskustelleet asiasta tekoälyn kanssa.
Artikkelin aiheet- Osaston luetuimmat



