Direct naar artikelinhoud
beschouwingzelfdodingspreventie

Sociale media kunnen zelfdoding voorkomen, maar hoever mag dat gaan?

Sociale media maken het makkelijk adviezen te vinden over zelfdoding, maar ze kunnen mensen er ook juist van afhouden. Algoritmen zijn steeds beter in staat zorgelijke signalen te herkennen. Maar is dat wenselijk? En helpt het?

Sociale media kunnen zelfdoding voorkomen, maar hoever mag dat gaan?
Beeld Nathalie Lees

Op 24 september 2011 maakte mijn vriendin een einde aan haar leven. Ze was 29. Ik kende haar sinds mijn 4de. Hoewel ik wist dat ze depressief was, was het niet in me opgekomen dat ze zichzelf iets zou kunnen aandoen. Ik was jong genoeg om te denken dat zelfdoding, net als enge ziekten en verkeersongelukken, alleen onbekenden overkwam.

Mijn vriendin had op internet naar bepaalde informatie gezocht over zelfdoding. Ik houd het expres vaag, om anderen niet op ideeën te brengen, maar ook omdat de lezingen hierover verschillen. Zo onbetrouwbaar is het geheugen blijkbaar, dat familieleden en vrienden er acht jaar later verschillende herinneringen op nahouden over of en wat ze online zocht. Zelf probeerde ik in de weken na haar dood haar onlinezoektocht te reconstrueren. Ik kwam niet ver. Mogelijk bezocht ze een besloten forum waar mensen elkaar adviezen geven over zelfmoordmethoden. Er bestaan meerdere van zulke (Engelstalige) fora. Doorgaans vermeldt de beheerder dat het forum ‘voor educatieve doeleinden’ is en dat het verboden is andere bezoekers aan te zetten tot suïcide.

Zelfdoding is de meestvoorkomende doodsoorzaak onder Nederlanders tussen de 20 en 40 jaar. Mensen in deze leeftijdscategorie zijn gewend informatie van internet te halen. Als ik in 2019 opnieuw de zoektermen in Google gebruik waarvan ik denk dat mijn vriendin ze gebruikte, verschijnt er boven de resultaten een melding van 113 Zelfmoordpreventie, de Nederlandse stichting die zelfmoord probeert te voorkomen. Of ik misschien hulp nodig heb. Hoe werkt dat? ‘We verzinnen allerlei combinaties van trefwoorden waarop mensen zouden kunnen zoeken’, zegt woordvoerder Stefanie Michelis van 113 Zelfmoordpreventie, als ik haar die vraag voorleg. De organisatie zou graag zien dat ook sociale media als Facebook en Twitter automatisch deze melding plaatsen onder zorgwekkende teksten van gebruikers. Volgens 113 Zelfmoordpreventie geven veel mensen die suïcidale gevoelens en gedachten hebben, hier online uiting aan. De organisatie is in gesprek met Twitter om een lijst met zorgwekkende hashtags op te stellen. Het gebruik van hashtags als #zelfmoord, #ikwildood, #KYS (kill yourself), en #sue (suïcide, een hashtag die vooral wordt gebruikt op Instagram) zou erop kunnen wijzen dat iemand suïcidale gedachten heeft. Hoewel? Een zoektocht naar #ikwildood op Twitter levert veel statusupdates op die niet per se alarmerend klinken. ‘Ik heb het voor elkaar gekregen om het belangrijkste boek waaruit ik moet leren voor m’n tentamen kwijt te raken #ikwildood’, schrijft iemand. Op Instagram is een grapjas actief die allerlei flauwe plaatjes van deze hashtag voorziet.

Hulp nodig

Maar dan stuit ik op de tweets van iemand die ik hier Dave zal noemen. Zijn bio vermeldt alleen: ‘hulp nodig’. ‘Dave’ meldt dat hij psychisch wordt mishandeld door zijn vriendin en dat ‘je in Nederland als man niet wordt geholpen’. Hij ziet nog maar één oplossing voor zijn problemen. Zijn eerste zelfmoordpoging is mislukt, schrijft hij, maar morgen probeert hij het opnieuw. ‘Nog heel even en dan is het eindelijk over voor mij.’ De laatste tweet is net geplaatst. Hij heeft nul volgers.

Ik attendeer Twitter op het bericht. In een automatisch verzonden e-mail beloven ze me zo snel mogelijk te reageren en bedanken ze me bij voorbaat voor mijn geduld. Dat blijkt niet overdreven. Vier weken later wacht ik nog steeds op reactie. Dave volgt slechts één persoon op Twitter, een vrouwelijke wijkagent. In een tweet roept hij haar op om al zijn berichten te lezen. Ze reageert met het verzoek haar te bellen via het algemene politienummer, of anders anoniem 113 te bellen. Het blijft stil. Ik vrees al het ergste, maar vijf dagen later laat Dave weer van zich horen. ‘Nummer 113 bestaat niet’, schrijft hij terug. Dat klopt. Onlangs maakten twee mensen een einde aan hun leven nadat ze 113 hadden gebeld en geen gehoor hadden gekregen. Het juiste telefoonnummer is namelijk 0900-0113.

Politieagenten krijgen trainingen om met zorgwekkende berichten als die van Dave op sociale media om te gaan, laat een politiewoordvoerder weten. ‘We zien het als een logisch verlengstuk van onze taak om hulpverlening te bieden. Overigens staat in de wet dat iederéén moet proberen om mensen in nood bij te staan. Je kunt in een reactie verwijzen naar 113 Zelfmoordpreventie, of laten weten dat ze bij de lokale politiek terechtkunnen.’

Engagement

Hoeveel verantwoordelijkheid hebben sociale media als het over zelfdoding gaat? Onlineplatforms worstelen openlijk met die vraag. In 2017 kreeg Facebook veel kritiek te verduren nadat er meerdere livestreams van zelfmoordpogingen waren uitgezonden. In datzelfde jaar werd de dood van een 14-jarig Brits meisje in elk geval gedeeltelijk toegeschreven aan de beelden en teksten over suïcide die ze had bekeken op Instagram, eigendom van Facebook. In 2019 vroeg een 16-jarig Maleisisch meisje aan haar volgers op Instagram of ze moest blijven leven of niet. Toen 69 procent voor ‘dood’ stemde, maakte ze een einde aan haar leven. Om de zoveel tijd gaan hoaxen over onlinechallenges die kinderen zouden aanzetten tot suïcide op sociale media een eigen leven leiden. 

Maar sociale media zijn óók de uitgelezen plek om lotgenoten te treffen. Er zijn veel Facebookgroepen waar mensen met zelfmoordgedachten terechtkunnen voor steun. Meestal worden ze geleid door mensen die daarvoor niet zijn opgeleid, een enkele keer met rampzalige gevolgen. In minstens één geval leidde het tot het advies van een beheerder dat een groepslid er maar beter een einde aan kon maken. Anderzijds valt niet te zeggen hoeveel mensen van zelfdoding worden afgehouden door de steun die ze in zulke community’s krijgen.

Facebook zag in dat het een ‘unieke functie’ vervult en schakelde de hulp in van suïcide-experts. In september 2019 leidde dit tot een aangescherpt beleid, met minder ruimte voor berichten over zelfverwonding en -doding. Sinds kort zijn zelfs cartoons over zelfverwonding niet meer toegestaan op Instagram. Ook zoeken naar posts over zelfverwonding en -doding is moeilijker gemaakt. Uit onderzoek van Virginia Commonwealth University blijkt echter dat de meeste Instagramgebruikers niet zoeken naar zulke beelden, maar er ongevraagd mee worden geconfronteerd. Dat is een gevolg van de manier waarop de algoritmen van sociale media werken: berichten over zelfdoding veroorzaken een hogere mate van ‘engagement’ dan andere Instagramposts. Dat wil zeggen dat ze vaker worden gedeeld en dat er meer op wordt gereageerd dan op andere berichten. En dat is nu juist wat sociale media willen.

Politie-invallen

Facebook heeft dus nog werk te verzetten. Wel wordt het beter in het herkennen van schokkende berichten, onder meer door het gebruik van algoritmen. Tussen april en juni 2019 haalde het sociale medium naar eigen zeggen meer dan anderhalf miljoen statusupdates over zelfdoding en -verwonding offline, waarvan 95 procent voordat het door gebruikers was gesignaleerd. Op Instagram ging het om meer dan 800 duizend posts. Of berichten moeten worden verwijderd, bepalen medewerkers van vlees en bloed.

Technisch is er steeds meer mogelijk op het gebied van suïcidepreventie. In de Verenigde Staten, waar de privacywetgeving minder strikt is dan in Europa, zet Facebook kunstmatige intelligentie in om afwijkend gebruikersgedrag te herkennen. Stel dat een Amerikaanse oma altijd veel hartjes en likes uitdeelt onder foto’s van de kleinkinderen, maar daar opeens mee ophoudt en alleen nog omfloerste signalen uitzendt, zoals ‘ik ben zo moe’ of ‘de wereld is beter af zonder mij’. Het systeem zal dit opmerken en alarm slaan. Menselijke moderatoren besluiten vervolgens of er actie nodig is. In noodgevallen schakelen ze de politie in. Volgens Facebookbaas Mark Zuckerburg kwamen de nooddiensten in 2018 wereldwijd 3.500 keer in actie na een suïcide-alarm van Facebook.

In Nederland maakt Facebook geen gebruik van dit soort patroonherkenning, omdat het in strijd is met de Europese privacywet. Misschien is dat maar goed ook. The New York Times berichtte in december 2018 kritisch over politie-invallen bij Facebookgebruikers die zorgwekkende berichten hadden geplaatst. Eén vrouw werd opgenomen in een inrichting, hoewel ze volhield niet suïcidaal te zijn. ‘Een grote angst van veel mensen met zelfmoordgedachten is dat ze zullen worden opgesloten als ze laten merken wat ze bezighoudt’, zegt Stefanie Michelis van 113 Zelfmoordpreventie. ‘Daarom benadrukken wij in onze banners altijd dat een bezoek aan onze website anoniem is.’ 113 gebruikt ook geen cookies op de website die individueel surfgedrag bijhouden en profielen opstellen om bijvoorbeeld advertenties op af te stemmen.

Risico voorspellen

Privacy en suïcidepreventie zijn per definitie moeilijk met elkaar te verenigen. In 2018 maakten 12,2 mensen per 100 duizend in Australië een einde aan hun leven (1,6 meer dan in Nederland). Het Australische Black Dog Institute, een onderzoeksinstituut voor psychische aandoeningen, onderzoekt daarom het gebruik van ‘digital phenotyping’ om zelfdodingen te voorkomen. Digital phenotyping is het verzamelen van data met behulp van iemands smartphone of smartwatch. Die data kunnen socialemediaberichten zijn, maar ook informatie over slaap, beweging, stemgebruik en typesnelheid. 

Het onderzoek naar digital phenotyping voor suïcidepreventie bevindt zich nog in een pril stadium, maar de methode blijkt al veelbelovend voor het voorspellen van stemmingswisselingen bij mensen met een bipolaire stoornis. Ook een opkomende depressie lijkt af te lezen aan data uit een smartphone. ‘Mensen gaan dan onder meer langzamer bewegen’, zegt onderzoeker Kit Huckvale van het Black Dog Institute. ‘Wij willen begrijpen wat er gebeurt in iemands hoofd in de uren en minuten voor een zelfmoordpoging. Door de digitale apparaten die we allemaal bij ons dragen, hebben we voor het eerst enig zicht op wat zich op zo’n moment afspeelt. Met de data kunnen we modellen maken die voorspellen wanneer iemand een verhoogd risico loopt om zichzelf iets aan te doen.’

De onderzoekers hopen daarmee een app te ontwikkelen voor mensen die in het verleden een zelfmoordpoging hebben gedaan en die zichzelf willen laten monitoren, zodat ze tijdig hulp kunnen zoeken. Toestemming en transparantie zijn daarbij een absolute vereiste. Huckvale: ‘In een onderzoekssetting werken we ook met toestemmingsverklaringen. Dit zou niet anders zijn. Mensen moeten heel precies kunnen aangeven welke data ze willen delen.’

Dat het ondanks de beste bedoelingen toch kan misgaan, bewees Samaritans Radar. Deze Twitter-plug-in uit 2014 was bedacht om twitteraars het gemoed van hun vrienden in de gaten te laten houden, nadat een onderzoek uit 2013 een verband had laten zien tussen het aantal tweets over suïcide door mensen met een verhoogd risico en het aantal zelfdodingen. Je kon een account aanmelden als je je zorgen maakte over iemand. Tweette diegene bijvoorbeeld ‘ik wil dood’, dan stuurde het algoritme van Samaritans Radar je automatisch een waarschuwing per e-mail. De twitteraar in kwestie was zich er vaak niet van bewust dat zijn tweets door een algoritme werden gescand. Daarom werd de dienst beschouwd als een privacyschending. Negen dagen na de lancering moest Samaritans Radar noodgedwongen stoppen.

Maar de échte uitdaging blijkt een andere dan privacy. In augustus publiceerde de Volkskrant een interview met de Nederlands-Chinese computerwetenschapper Huang Zhisheng. Hij bouwde een ‘zelfmoordscanner’ voor Chinese sociale media. Een algoritme analyseert berichten op suïcidale gevoelens en intenties. In urgente gevallen komen vrijwilligers in China in actie om mensen van hun voornemens af te houden (privacy is volgens de onderzoeker op zo’n moment even ondergeschikt aan het redden van levens). Het algoritme heeft het in 82 procent van de gevallen bij het rechte eind. De cryptischer doodswensen ziet het soms over het hoofd. ‘Nu we meer data hebben, zou ik de precisie kunnen vergroten’, zegt Huang in het artikel. ‘Maar zolang we niet meer vrijwilligers hebben, heeft dat geen nut.’ Daar raakt hij een gevoelig punt. Is er iets eenzamer dan een afscheidsboodschap die alleen door een algoritme wordt opgemerkt?

Uitgestoken hand

113 Zelfmoordpreventie begon in 2010 met het plaatsen van verwijzingen via Google. Of mijn vriendin bij het intikken van haar zoektermen ook de vraag kreeg of ze hulp nodig had, weet ik niet. Zo wel, dan heeft het haar niet op andere gedachten gebracht.

En stel nu dat er in Nederland geen privacywetgeving was geweest. Dan had een algoritme misschien automatisch melding kunnen maken van haar zoekgedrag, waarop haar omgeving  had kunnen worden gewaarschuwd. Maar zou het bestaan van die technologie haar echt hebben geholpen? Ik denk dat mijn vriendin zich dan wel twee keer zou hebben bedacht voordat ze online zou gaan zoeken. Ik heb ook niet de illusie dat het haar zonder Google niet was gelukt.

Uiteindelijk is het niet aan de technologie, maar aan de omgeving om op tijd in te grijpen, en aan degene met psychische problemen om die hulp te aanvaarden. Neem nou Dave. Hij blijkt lastig bereikbaar voor de wijkagent aan wie hij zijn noodkreten richt. Omdat de politie iets meer mogelijkheden heeft dan een willekeurige Nederlander als het op onlinehulpverlening aankomt, probeert zij via het IP-nummer zijn identiteit te achterhalen. Maar als dat mislukt, en Dave afwijzend reageert op haar berichten, staakt zij haar pogingen. ‘Als iemand je uitgestoken hand niet aanneemt, kun je niet méér doen’, zegt de woordvoerder van de politie. Dat beaamt Stefanie Michelis van 113 Zelfmoordpreventie. ‘Ook wij verwijzen naar plekken waar mensen terechtkunnen voor hulp, maar we gaan het niet overnemen. Iemand moet zelf een keuze maken.’

Mijn vriendin maakte helaas haar keuze. Ook op het Twitter-account van Dave is het inmiddels zorgwekkend stil. Ik hoop maar dat hij hulp heeft gevonden.

Wilt u praten over zelfdoding of wilt u hulp op dit gebied? Bel 113 Zelfmoordpreventie: 0900-0113. Of neem contact op via 113.nl

Hoe help je iemand die online suïcidale gedachten deelt?

Facebook, Instagram en Twitter willen hun gebruikers niet de mogelijkheid ontnemen om via sociale media aandacht te vragen voor hun problemen. De effectiefste maatregel die Facebook nam in reactie op de kritiek, is daarom wellicht de oprichting van een ‘veiligheidscentrum’ met informatie over zelfmoordpreventie. De Nederlandse versie biedt onder meer de mogelijkheid om direct met een medewerker van 113 Zelfmoordpreventie te chatten via 113.nl. Hier kun je ook terecht als je je zorgen maakt over iemand anders. 

Facebook volgt sinds kort de Orygen #chatsafe guidelines. Dit zijn richtlijnen voor een onlinegesprek met mensen met suïcidale gedachten, opgesteld in samenspraak met jonge Australische ervaringsdeskundigen. Daarin wordt onder meer aangeraden om te benadrukken dat zelfdoding een complex onderwerp is en dat er veel factoren zijn die bijdragen aan iemands besluit om een eind aan zijn leven te maken. Ook wordt geadviseerd te benoemen dat zelfdoding te voorkomen is en dat er succesvolle behandelingen bestaan. 

Niet handig is onder meer om veroordelende taal te gebruiken (zoals ‘aandacht zoeken’) en om te zeggen dat er niets aan te doen is. 113 Zelfmoordpreventie ontwikkelde de Vraagmaar-app, die eveneens het vragen naar zelfmoordgedachten ondersteunt. De app is verkrijgbaar in de App Store en bij Google Play.