Entre gain de temps et dérive potentielle, l’intelligence artificielle s’est invitée dans le quotidien des infirmiers libéraux sans crier gare. Du GPS au logiciel de facturation, elle simplifie la tournée. Mais quand l’IA s’approche un peu trop près de la seringue, autrement dit de la santé des patients, une question se pose : jusqu’où peut-on lui faire confiance sans franchir la ligne rouge éthique ?
Ces dernières années, pour ne pas dire décennies, l’intelligence artificielle s’est immiscée partout dans notre quotidien, de façon progressive : de la voiture, aux téléphones en passant par les aspirateurs, les robots de cuisine ou encore nos logiciels médicaux. Et les IDEL ne dérogent pas à ce phénomène, l’IA fait aujourd’hui partie intégrante de vos tournées.
Néanmoins, pas de panique : l’intelligence artificielle ne va pas remplacer, enfin pas tout de suite. Mais il est important de se questionner sur celle-ci : entre progrès technologiques et dérives possibles, où placer la frontière ? Et surtout, que doit faire ou ne pas faire une infirmière libérale face à cette nouvelle donne ?
L’IA, un outil non-négligeable ?
Avant de sortir les pancartes “Non à Terminator en blouse blanche”, soyons honnêtes : l’IA a déjà changé pas mal de choses dans le quotidien des professionnels de santé, IDEL inclus. Et souvent, ces changements se sont avérés être positifs, autrement dit, des progrès. L’intelligence artificielle permet notamment la lecture d’IRM, peut prédire des risques d’AVC ou encore, permet aux diabétiques de mieux gérer leur glycémie via des algorithmes plus intelligents que notre vieille calculette Casio.
Mais quid des IDEL ? Loin des blocs opératoires et des robots chirurgicaux, l’IA s’est tout de même invitée dans leur profession, d’une façon plus discrète, moins conséquente certes, mais tout aussi utile. Le premier exemple qui revient est forcément le GPS dans votre véhicule. Bien qu’à force, vous connaissez l’adresse de vos patients et les rues de votre ville par cœur, le GPS est une intelligence artificielle qui contribue grandement à faciliter votre quotidien, en optimisant les trajets, et donc le temps, l’essence, et le stress.
Sans oublier les divers logiciels utilisés pour vous accompagner, comme le meilleur de tous aka Albus, qui derrière leur superbe interface, fonctionnent à l’IA pour prévoir les soins, rappeler les factures en retard, ou encore permet de vérifier la conformité des cotisations. Encore une fois, l’intelligence artificielle permet de gagner du temps, de l’énergie. En gros, de faciliter votre quotidien. Et soyons clairs : quand on a 25 soins à enchaîner dans la journée, pouvoir se concentrer sur l’humain plutôt que sur la paperasse, c’est un luxe. Alors oui, l’IA, quand elle reste à sa place d’outil, c’est plutôt sympa.
Quelle ligne à ne pas franchir ?
Mais voilà. Si l’IA vous aide et vous accompagne dans votre quotidien d’IDEL, celle-ci ne doit surtout pas franchir une ligne qui est vitale. Traduction : l’intelligence artificielle ne doit pas avoir une influence directe sur votre activité médicale auprès des patients.
Être IDEL, c’est être un professionnel de santé qui fait des choix, qui analyse un corps, une douleur, un regard. Et ce jugement clinique est basé sur votre expérience, vos connaissances et votre intuition. Des qualités et des savoirs que l’IA ne peut pas, et ne doit surtout pas, remplacer.
Imaginons. Vous êtes fatiguée, il est 19h, vous avez encore deux patients à voir. Vous vous dites : “Tiens, je vais demander à ChatGPT s’il faut mettre un pansement hydrocolloïde ou hydrogel.” Non. Mauvaise idée. On ne vous apprend rien mais on vous le redit, sait-on jamais : ChatGPT n’est pas un professionnel de santé. Il ne connaît ni l’état de la plaie, ni la température ambiante, ni si votre patient tolère le sparadrap. Il a beau sortir une réponse bien formulée, ça reste une généralité, une approximation. Et en santé, une approximation peut être dangereuse.
Autre exemple : une IA vous alerte sur une fréquence cardiaque anormale enregistrée sur un dispositif connecté. Bien. Mais c’est à vous, IDEL, d’interpréter. L’IA ne sait pas si le patient vient de grimper les escaliers ou de se fâcher avec sa belle-sœur. Confiance, oui. Aveuglement, non. À aucun moment, l’intelligence artificielle doit avoir une quelconque influence sur la santé d’un patient. Elle peut vous accompagner certes, peut apporter certaines précisions mais ne doit pas être décisionnelle.
Et on ne parle même pas du secret professionnel et des données sensibles. Utiliser des assistants IA non sécurisés ou non labellisés pour poser des questions sur des cas concrets de patients, c’est comme murmurer les antécédents médicaux de quelqu’un dans une rame de métro : une très mauvaise idée.
Conclusion : L’IA ? Oui, mais dans la boîte à outils.
L’IA est une alliée précieuse : elle vous aide à gérer votre planning, à ne pas perdre vos factures, à mieux organiser vos soins. Elle peut même vous rappeler que vous avez oublié votre café. Mais elle ne doit jamais influencer vos décisions médicales. On ne plaisante pas avec la santé des patients.
Infirmière libérale, vous êtes celle ou celui qui écoute, observe, palpe, comprend. C’est vous qui jugez s’il faut alerter un médecin, s’il faut changer un protocole, s’il faut juste rester cinq minutes de plus pour rassurer une patiente isolée. Ce rôle, aucune IA ne peut le remplir. Et heureusement.
Alors, utilisez votre GPS, chérissez Albus, demandez à votre assistant vocal de vous rappeler d’acheter du désinfectant. Mais pour le reste, souvenez-vous : la blouse blanche, c’est vous qui la portez. L’IA, elle, reste dans la poche. Et si un jour un robot vient pour faire les pansements à votre place, montrez-lui d’abord comment on fait un strip bien aligné. On verra s’il tient plus d’une tournée.