Le projet de recherche doctorale s'inscrit dans le cadre d'un développement fulgurant de la relation entre le droit pénal et l'intelligence artificielle : un sujet qui est devenu à la page dans la doctrine pénale. En effet, face aux risques potentiellement catastrophiques de cette technologie, le non-recours au droit pénal en ce contexte est inconvenant pour deux raisons. Tout d'abord, l'absence de sanction privative de liberté marquerait, dans le nouvel ordre, une diminution de la protection effective des biens juridiques. Ensuite, déléguer les fonctions de protection uniquement à d'autres branches du système juridique comporterait le risque d'inaugurer une nouvelle (et très orageuse) saison de 'fraude de l'étiquette', caractérisée par l'utilisation de sanctions afflictives tells que celles pénales, mais formellement étiquetées d'une nature différente et, par conséquent, applicables sans respecter les garanties prévues pour les peines. En même temps, la question de l'intervention du droit pénal dans la sphère des infractions dites robotiques souligne impétueusement les problèmes rencontrés dans l'établissement de la responsabilité pénale dans les cas où l'agent (adaptatif ou simple outil) est un système conçu par l'homme, mais autonome par rapport à lui, pas toujours contrôlable et pas entièrement connaissable dans son processus d'auto-apprentissage et de détermination. Plus précisément, outre les difficultés qui se posent dans le contexte de l'actus reus (l'identification d'une contribution humaine corrélée au fonctionnement déviant de l'IA, la vérification d'un pouvoir de contrôle sur le système de la part de l'homme), c'est dans le domaine de la culpabilité que l'on trouve le plus de difficultés. En effet, lorsque l'IA est utilisée comme instrument pour commettre l'infraction (hypothèse qui conduit au thème de la faute intentionnelle), elle apporte un moment créatif dans la commission de l'infraction qu'elle peut sortie de la sphère de représentation initiale de l'homme. En ce qui concerne les cas où l'action délictueuse de l'IA est due à une erreur non intentionnelle dans le mode de production ou d'utilisation (une éventualité qui conduit au thème de la négligence), la doctrine dominante estime que l'imprévisibilité des systèmes de machine learning, en faisant disparaître le critère du risque typique de regles de diligence, gèle la possibilité d'adresser un reproche subjectif au sujet programmeur ou utilisateur. Sur ce marasme de questions aristotéliciennes est d'ailleurs destiné à souffler le vent de la réglementation européenne sur l'IA qui prévoit des obligations spécifiques de diligence et de surveillance de la part des sujets intervenant dans le cycle de vie du système. La discipline européenne, qui se base sur une appréciation du risque comme pierre angulaire de la responsabilité humaine, conduira à un processus d'évolution du contenu de la faute que ce projet aspire à analyser. Sur le plan méthodologique, puisque le Règlement européen sur l'IA (AI Act) prévoit, d'une part, des pratiques interdites et, d'autre part, des pratiques autorisées sous réserve du respect de certaines règles de diligence, la recherche partira de la distinction classique et jamais dépassée entre la responsabilité « pour le type » et « pour la manière » de la production. En se concentrant principalement sur le second aspect, on étudiera les types de risques auxquels les règles contenues dans l'AI Act sont liées, la gestion de ces risques par les sujets concernés dans le cycle de vie du produit, et la configurabilité des positions de garantie vis-à-vis des destinataires des obligations de contrôle. Étant donné que les règlements européens sur l'IA ont un impact pénal commun aux États membres, la recherche doctorale sera menée en cotutelle avec l'Université de Ferrera et l'Université de Lorraine pour présenter une étude comparative de l'impact de l'AI Act sur les systèmes pénaux d'Italie et de France.