L'encadrement de l'intelligence artificielle (IA) dans le domaine de la santé est au coeur de vives discussions dans de nombreuses juridictions du monde. Parmi eux, la France, le Québec et la Californie, qui participent chacun d'ordres juridiques parallèles ou supérieurs - respectivement l'Union européenne, le Canada et les Etats-Unis d'Amérique - semblent précisément liés par la recherche d'un objectif similaire. En effet, ils manifestent de manière claire et intensive leur intention politique, économique et juridique de mettre tout en oeuvre pour provoquer, soutenir et entretenir le développement de l'intelligence artificielle (IA) afin de promouvoir la santé publique, d'accélérer les diagnostics, d'affiner les traitements, ou encore d'améliorer les conditions d'existence des patients. Cette volonté s'accompagne d'une intention concomitante : celle de garantir de la manière la plus adéquate le droit à la protection de la vie privée (ou right to privacy), dont la valeur constitutionnelle consacrée au sein de chacune de ces juridictions la place en principe comme une priorité. Or, nous soutenons que les règles participant des régimes de protection des données personnelles et de santé recherchent précisément ce double objectif, davantage encore dans l'attente ou dans le silence des réglementations spécifiques aux systèmes d'IA. Pourtant, elles envisagent aussi les fondements et la substance de la vie privée de manière quelque peu différente, aboutissant à des situations variées de l'application des règles. C'est cette forme de diversité juridique, au coeur de grandes similarités, que nous analysons au coeur d'un travail de droit comparé. La recherche s'appuie la méthode fonctionnelle développée en droit comparé, soit celle du fonctionnalisme d'équivalence. Le double objectif évoqué s'analyse ainsi comme l'une des fonctions recherchées par les règles législatives de protection des données personnelles analysées. Ces instruments juridiques peuvent être comparés uniquement parce qu'ils sont considérés servir cette même fonction (parmi d'autres). A travers cette approche méthodologique, nous tentons de montrer que l'application des règles qui composent ces instruments suppose des bases, des imbrications et des situations factuelles résultant de leur application, tantôt différentes, tantôt communes, influençant cependant toujours sur la manière dont les instruments servent la fonction. Nous soutenons, de manière préliminaire, que les juridictions répondent d'abord à cette fonction par la détermination des entités et des données concernées, impactant dès lors les phases de conception et d'exploitation d'un système d'IA en santé. Nous soutenons ensuite que les juridictions répondent à la fonction par la détermination de règles relatives à la collecte et à la réutilisation de données, encadrant ainsi la constitution des bases de données d'apprentissage nécessaires à la phase de conception d'un système d'IA. Nous soutenons enfin que les juridictions répondent à la fonction par la détermination de droits et d'obligations relatifs au traitement de données par des technologies comportant des risques pour la vie privée, encadrant ainsi notamment les décisions automatisées et le profilage, et concernant donc la phase d'exploitation d'un système d'IA. Notre analyse permet plusieurs conclusions. D'abord, et de manière générale, plus les entités et les données sont largement envisagées, plus un degré de protection peut être assuré sans que le développement de l'IA s'en soit drastiquement impacté. Nos conclusions amènent également à considérer que les deux types de règles analysées, dont les premières étaient a priori mal adaptées au contexte de l'IA et les deuxièmes plus rarement l'objet de discussions spécifiques à l'IA, sont pourtant dotées d'un intérêt majeur pour répondre à la fonction, si elles sont interprétées et appliquées selon les éléments dégagés par l'analyse comparée.