BlogMobile

L’intelligence artificielle apprend Ă  prĂ©dire et Ă  prĂ©venir les suicides

L'intelligence artificielle apprend à prédire et à prévenir les suicides

L'intelligence artificielle apprend à prédire et à prévenir les suicides

L’intelligence artificielle et l’apprentissage automatique peuvent avoir de nombreuses utilisations. Mais les gouvernements et des entreprises comme Facebook utilisent ces outils pour quelque chose de plus noble: prĂ©venir le suicide.

Selon l’Institut national des statistiques, 3602 personnes ont perdu la vie par suicide dans notre pays en 2015. Huit personnes pour 100 000 habitants, principale cause de mort artificielle. Bien que de plus en plus de personnes meurent de causes telles que le cancer ou des maladies du système circulatoire, le nombre de suicides en Espagne continue d’augmenter. Et nous avons atteint un point oĂą il y a plus de suicides que de dĂ©cès dus aux accidents de la route.

Jusqu’Ă  prĂ©sent, des pays comme le Royaume-Uni ou le Danemark ont ​​dĂ©ployĂ© des efforts gouvernementaux pour mettre fin Ă  cette Ă©pidĂ©mie silencieuse. En Espagne, nous n’avons rien de similaire: ce qui est le plus proche est l’appel TĂ©lĂ©phone de l’espoir, qui a un tĂ©lĂ©phone 902 comme drapeau. Il n’y a aucun effort du gouvernement pour lutter contre cette tendance. Et gĂ©nĂ©ralement c’est quelque chose compliquĂ© Ă  combattre, ayant toujours formĂ© des professionnels de la santĂ©. Mais l’intelligence artificielle pourrait nous aider.

Nous formons dĂ©jĂ  l’intelligence artificielle pour Ă©viter le suicide

cogito-compagnon-application-android-santé-mentale

Nous disons cela parce que les chercheurs ont formĂ© l’intelligence artificielle Ă , par apprentissage automatique, prĂ©dire si quelqu’un tentera de se suicider. L’Ă©tude, rĂ©alisĂ©e par la Florida State University, affirme que son système est capable de le prĂ©dire avec une efficacitĂ© qui va de 80% Ă  90%. Et je pourrais le prĂ©dire dans deux ans, laissant suffisamment de temps aux professionnels de la santĂ© pour agir.

Pour y parvenir, les chercheurs ont utilisĂ© des donnĂ©es anonymes de 2 millions de patients dans le Tennessee, aux États-Unis. Avec toutes ces donnĂ©es, nous utiliserons des algorithmes pour dĂ©terminer quels facteurs sont indicateurs qu’une personne essaie de se suicider. Des prescriptions mĂ©dicales qui lui ont Ă©tĂ© prescrites aux visites qu’il a faites aux urgences.

Ce n’est pas le seul projet qui travaille dans ce sens. Cogito, une entreprise nĂ©e du MIT et financĂ©e par la DARPA, teste une application appelĂ©e Companion qui analyse votre santĂ© mentale en Ă©coutant votre voix. Il ne fait pas attention Ă  ce que vous dites, mais analyser le ton, l’Ă©nergie et la fluiditĂ© de votre voix (entre autres facteurs) pour dĂ©tecter d’Ă©ventuels signes de dĂ©pression.

D’une part, il est testĂ© sur un groupe de centaines d’anciens combattants, obtenant de bons rĂ©sultats. D’autre part, dans le Massachusetts, l’application est Ă©galement utilisĂ©e chez des patients prĂ©sentant des problèmes mentaux connus. Et ce n’est pas seulement utile que l’avertissement que fait l’application, ce qui est gĂ©nĂ©ralement rare. Les mĂ©decins affirment que avoir toutes ces informations les aide pour comprendre la nature d’un problème mental.

Facebook à la recherche de modèles pour détecter les suicides

tumblr-warning-Ă©viter-suicides

Si vous recherchez du contenu sur les indicateurs de suicide sur des sites comme Google ou Tumblr, vous recevrez l’alerte que vous avez sur ces lignes. Faire quelque chose comme ça sur le plan technique est simple, c’est filtre qui saute lorsque vous saisissez certains mots clĂ©s. C’est-Ă -dire que cet Ă©cran ne sait mĂŞme pas si nous avons l’intention de nous tuer ou si nous ne cherchons que par curiositĂ©. Ou si nous nous documentons pour un article Omicrono. ET Facebook veut aller plus loin, en utilisant l’intelligence artificielle pour dĂ©tecter ces modèles qui indiquent le suicide.

Facebook nous permet dĂ©jĂ  de signaler des articles ou du contenu contenant des tendances suicidaires. Et ils ont Ă©tĂ© utiliser ces rapports pour entraĂ®ner un algorithme. L’idĂ©e est que cet algorithme est capable de dĂ©tecter des publications similaires Ă  celles dĂ©jĂ  signalĂ©es par les utilisateurs. Si l’algorithme dĂ©tecte une publication similaire, l’option permettant de signaler les tendances suicidaires sera mise en Ă©vidence Ă  l’Ă©cran. Et cela inclut non seulement les publications avec du texte, mais il serait Ă©galement intĂ©grĂ© Ă  des fonctions telles que Facebook Live.

facebook-live-prévention du suicide

L’algorithme est testĂ© avec des utilisateurs amĂ©ricains. Et l’entreprise a dĂ©clarĂ© que ils combinent cette mesure avec d’autres pour prĂ©venir le suicide. Par exemple, ils se sont associĂ©s Ă  diffĂ©rentes organisations pour offrir des lignes d’assistance et des conseils, en plus d’options plus classiques telles que parler Ă  un contact de confiance.

Aussi, pour l’avenir, ils commentent qu’il serait possible transfĂ©rer toute cette technologie d’intelligence artificielle en vidĂ©o en direct Facebook Live et nos conversations Messenger. Ainsi, Facebook est capable de reconnaĂ®tre des schĂ©mas suicidaires dans notre contenu et de nous offrir de l’aide avant d’atteindre le point limite. Cependant, ils affirment eux-mĂŞmes qu’il est trop tĂ´t pour le dire.

Bouton retour en haut de la page

Blocage d'annonces détecté

Vous devez supprimer le AD BLOCKER pour continuer Ă  utiliser notre site MERCI