L'intelligence artificielle transforme en profondeur les pratiques juridiques contemporaines. En quelques années, les outils algorithmiques ont investi le quotidien des professionnels du droit : moteurs de recherche automatisés, assistants de rédaction, logiciels de justice prédictive, plateformes de gestion de contentieux. Ces technologies, qui promettent un gain d'efficacité et de rationalisation, redéfinissent la manière d'exercer la profession d'avocat. Longtemps perçu comme le garant exclusif de la compétence, de la rigueur et du discernement, l'avocat voit désormais son rôle évoluer face à ces outils capables d'assister, voire de suppléer partiellement, certaines de ses missions. Mais derrière cette apparente modernisation se dissimule une série d'interrogations nouvelles sur la nature et les limites de sa responsabilité professionnelle. Traditionnellement, la responsabilité de l'avocat repose sur la combinaison d'une obligation de moyens, d'un devoir de compétence et de loyauté, et d'un ensemble d'exigences déontologiques fixées par le Règlement Intérieur National. Tout manquement engage potentiellement sa responsabilité civile ou disciplinaire. L'usage d'une intelligence artificielle introduit cependant un nouvel acteur technique dans la relation avocatclient, brouillant les frontières de la faute et du lien de causalité. Qu'advient-il lorsqu'un conseil erroné provient d'une défaillance algorithmique, d'un biais dans les données ou d'une interprétation automatisée ? L'avocat peut-il s'exonérer de sa responsabilité en invoquant la défaillance de la machine, ou demeure-t-il tenu d'un devoir de vigilance absolu quant aux technologies qu'il choisit d'utiliser ? Par ailleurs l'utilisation des données personnelles d'un client par l'avocat dans son usage de l'intelligence artificielle soulève des problématiques de collectes et de traitement par l'entreprise privée qui la développe. Enfin, se poseront également des questions de conflits de lois en cas de litige entre l'avocat utilisateur et l'entreprise développeuse de l'intelligence artificielle. C'est à ces questionnements que mon projet de thèse entend répondre. L'objectif est d'analyser la manière dont l'intelligence artificielle reconfigure le régime de responsabilité de l'avocat, à la croisée du droit civil, du droit des professions réglementées et du droit du numérique. Dans un premier temps, il s'agira d'examiner l'impact de l'IA sur l'appréciation de la faute : une erreur commise sous l'influence d'un algorithme relève-t-elle encore du comportement fautif de l'avocat, ou marque-t-elle l'émergence d'une responsabilité partagée entre l'humain et la machine ? Dans un second temps, la recherche visera à envisager l'hypothèse d'une « responsabilité augmentée », où la maîtrise raisonnée des outils d'intelligence artificielle deviendrait une composante essentielle du devoir de compétence et d'adaptation de l'avocat aux évolutions technologiques. Cette réflexion s'appuiera sur une approche à la fois juridique, comparative et éthique. Sur le plan interne, elle mobilisera la jurisprudence relative à la responsabilité des avocats ainsi que les règles déontologiques édictées par le Conseil national des barreaux et par le Code de déontologie européen. Sur le plan européen, l'étude intégrera les apports du Règlement sur l'intelligence artificielle (AI Act), de la Directive relative à la responsabilité en matière d'IA et du Règlement général sur la protection des données (RGPD). L'analyse portera notamment sur la compatibilité entre ces nouveaux cadres normatifs et les exigences propres à la profession d'avocat, notamment en matière de secret professionnel, d'indépendance et de loyauté envers le client. Au-delà de l'analyse technique du régime de responsabilité, cette recherche s'inscrira dans une réflexion plus large sur la place de la décision humaine dans un environnement automatisé. L'avocat doit-il rester le garant ultime du discernement juridique, ou apprendre à partager sa responsabilité avec les concepteurs et fournisseurs d'intelligence artificielle, sel