La plupart des articles sur l’intelligence artificielle en urbanisme insistent sur ce que la technologie permet de faire. Celui-ci prend le parti inverse, non par pessimisme, mais parce que comprendre les limites d’un outil est une condition préalable à son utilisation professionnelle responsable. Un urbaniste qui déploie l’IA sans en connaître les angles morts s’expose à des erreurs qui peuvent avoir des conséquences réelles sur les décisions d’aménagement, sur la qualité des documents produits et sur la confiance des citoyens et des élus envers le processus.
Cette page s’adresse autant aux convaincus qui cherchent à calibrer leurs attentes qu’aux sceptiques qui ont besoin d’un portrait honnête avant de décider si ces outils ont une place dans leur pratique. Dans les deux cas, nommer les limites avec précision est plus utile que de les esquiver.
Pour situer ces limites dans le contexte plus large des usages possibles, la page IA et urbaniste au Québec : comment l’utiliser dans votre quotidien offre un panorama complémentaire.
Pourquoi aborder les limites est plus utile que d’accumuler les cas d’usage
Le discours dominant sur l’IA dans les milieux professionnels tend à valoriser les applications spectaculaires : un règlement rédigé en quelques minutes, une synthèse de consultation publique produite en une heure, une analyse de conformité automatisée. Ces exemples sont réels et les gains de temps qu’ils illustrent sont légitimes. Mais présentés sans nuance, ils créent des attentes qui ne correspondent pas à la réalité de terrain.
L’urbaniste qui a déjà utilisé un outil d’IA sur un cas concret sait que les résultats varient considérablement selon le type de tâche, la qualité des instructions fournies, la spécificité du contexte réglementaire et la capacité de l’outil à traiter des informations ancrées dans une réalité locale. Nommer ces variations, c’est permettre aux professionnels de déployer ces outils de façon éclairée plutôt que de naviguer à l’aveugle entre des promesses excessives et des déceptions évitables.
Les limites techniques
Les outils d’IA disponibles en 2026, même les plus performants, présentent des contraintes techniques qui ont des répercussions directes sur leur utilité dans un contexte d’urbanisme municipal québécois.
L’IA ne connaît pas votre territoire
Un outil d’IA généraliste n’a aucune connaissance du terrain sur lequel vous travaillez. Il ne sait pas que le secteur nord de votre municipalité est traversé par une contrainte hydrogéologique qui complique systématiquement les demandes de construction. Il n’a pas en mémoire les décisions politiques des dernières années qui colorent l’interprétation de certaines dispositions réglementaires. Il ne ressent pas la tension qui existe entre le développement résidentiel et la protection du tissu patrimonial dans tel quartier ancien.
Cette connaissance incarnée du territoire est au coeur de ce que fait un urbaniste compétent. Elle s’acquiert par la pratique, par les échanges avec les citoyens et les élus, par l’observation directe du milieu. Aucun algorithme, aussi sophistiqué soit-il, ne peut l’acquérir par substitution. Les sorties de l’IA sur des questions qui supposent cette connaissance locale doivent être traitées avec une prudence proportionnelle à cet angle mort.
Les données d’entraînement ne reflètent pas la réalité québécoise
Les grands modèles de langage ont été entraînés sur des corpus massifs de textes provenant principalement de l’anglais et de contextes nord-américains ou européens généraux. Le droit municipal québécois, avec ses particularités découlant de la Loi sur l’aménagement et l’urbanisme, la structure des MRC, les schémas d’aménagement, les règlements de contrôle intérimaire et les orientations gouvernementales en matière d’aménagement, est très peu représenté dans ces données d’entraînement.
En pratique, cela se traduit par des sorties qui semblent plausibles en surface mais qui contiennent des approximations ou des erreurs sur des points précis du cadre réglementaire québécois. Un article de règlement qui cite une disposition de la LAU de façon incorrecte, une référence à un processus d’approbation qui ne correspond pas à la procédure réelle au Québec ou une confusion entre des concepts qui ont des significations distinctes en droit municipal québécois : ces erreurs ne sont pas rares et ne sont pas toujours faciles à repérer sans une connaissance solide du domaine.
Les hallucinations dans les documents réglementaires
Le phénomène des hallucinations, soit la tendance des modèles de langage à produire des affirmations factuellement incorrectes avec une apparente confiance, est particulièrement problématique dans le contexte de la rédaction ou de l’analyse de documents réglementaires. Un outil d’IA peut citer un article de loi qui n’existe pas, attribuer une disposition à un règlement qui ne la contient pas ou décrire une procédure administrative de façon erronée tout en maintenant un ton assertif qui ne trahit aucun doute.
Dans un contexte courant, une hallucination est une inconvenance. Dans un contexte réglementaire officiel, elle peut devenir une source d’erreur juridique. C’est pourquoi toute information de nature législative ou réglementaire produite par un outil d’IA doit être vérifiée directement dans le texte source avant d’être intégrée à un document officiel.
Les limites professionnelles et déontologiques
Au-delà des contraintes techniques, il existe des limites qui relèvent de la nature même de la pratique professionnelle en urbanisme. Ces limites ne sont pas appelées à disparaître avec les prochaines générations d’outils d’IA : elles sont structurelles.
La responsabilité professionnelle ne se délègue pas à un algorithme
L’urbaniste membre de l’Ordre des urbanistes du Québec exerce sous un régime de responsabilité professionnelle encadré par le Code des professions et le Code de déontologie de l’OUQ. Il est responsable de la qualité et de la rigueur des actes professionnels qu’il pose, qu’il les ait réalisés entièrement de sa main ou qu’il se soit appuyé sur des outils pour les préparer.
Un document produit en tout ou en partie avec l’aide d’un outil d’IA demeure la responsabilité pleine et entière de l’urbaniste qui l’a validé et signé. Si ce document contient une erreur, la question de savoir si c’est l’IA qui l’a générée n’a aucune pertinence juridique ou déontologique. Ce qui importe, c’est que l’urbaniste a exercé, ou aurait dû exercer, son jugement professionnel sur le contenu avant de l’adopter.
L’acte professionnel demeure humain
La signature d’un plan d’urbanisme, d’un avis professionnel ou d’un rapport d’analyse constitue un acte professionnel au sens du Code des professions. Cet acte suppose un jugement autonome, une compétence certifiée et une imputabilité personnelle. Aucune plateforme d’IA ne peut signer un acte professionnel, et aucune ne peut endosser la responsabilité qui y est attachée.
Cette réalité devrait orienter de façon pratique la façon dont les urbanistes intègrent l’IA dans leur flux de travail : comme un outil de préparation et d’efficacité, pas comme un substitut au jugement professionnel qui doit précéder tout acte officiel.
Le jugement contextuel et politique
L’urbanisme est une pratique qui s’exerce à l’interface de contraintes techniques, de dynamiques sociales et de volontés politiques. Un urbaniste habile sait lire une salle lors d’une séance du conseil municipal, anticiper les résistances à un projet de densification, formuler une recommandation professionnelle de façon à ce qu’elle soit recevable dans un contexte politique particulier. Ce type de jugement contextuel est irréductible à un calcul algorithmique. L’IA peut produire une recommandation techniquement cohérente; elle ne peut pas évaluer si cette recommandation est politiquement viable dans le contexte précis d’une municipalité donnée à un moment donné.
Les limites éthiques et sociales
Les enjeux éthiques liés à l’usage de l’IA en urbanisme ne sont pas abstraits. Ils ont des répercussions concrètes sur l’équité des processus et sur la qualité des décisions qui en découlent.
Les biais de représentation dans les données urbaines
Les outils d’IA apprennent à partir de données. Dans le domaine de l’urbanisme, ces données reflètent des décisions passées qui ont souvent été prises dans des contextes où certaines populations étaient sous-représentées dans les processus décisionnels. Un outil d’IA entraîné sur ces données risque de reproduire, voire de renforcer, les biais qui y sont encodés.
Cela peut se manifester de façon subtile : une analyse de densification qui ne tient pas compte des besoins spécifiques des ménages à faible revenu, une synthèse de consultation qui pèse différemment les contributions selon leur registre de langue ou leur longueur, un outil de prédiction de demandes de permis qui performe moins bien dans des secteurs dont les caractéristiques sont moins bien représentées dans ses données d’entraînement. L’urbaniste qui utilise ces outils a la responsabilité de maintenir un regard critique sur les résultats et de les confronter à sa connaissance directe du terrain.
La fracture numérique dans la participation citoyenne
L’intégration de l’IA dans les processus de consultation publique soulève une question d’équité que les professionnels de l’aménagement ne peuvent pas ignorer. Les outils numériques, aussi accessibles qu’ils semblent en théorie, ne le sont pas de façon égale pour tous les segments de la population. Les personnes âgées, les personnes peu familières avec les interfaces numériques, ceux qui ne disposent pas d’un accès Internet fiable ou ceux qui s’expriment dans une langue autre que le français ou l’anglais peuvent se trouver défavorisés dans un processus consultatif qui repose trop fortement sur des outils technologiques.
Les enjeux spécifiques à la consultation publique et les façons d’y naviguer de façon responsable sont abordés dans l’article sur l’IA et la consultation publique en urbanisme.
Ce que ces limites signifient pour votre pratique au quotidien
Connaître les limites de l’IA ne devrait pas conduire à rejeter ces outils, mais à les utiliser avec une posture professionnelle rigoureuse. Deux principes pratiques découlent directement de ce qui précède.
Traiter l’IA comme un outil d’efficacité, pas de décision
La distinction est fondamentale. L’IA peut accélérer la préparation d’un document, faciliter la synthèse de contributions volumineuses, générer une ébauche qui servira de base de travail. Elle ne devrait pas être positionnée, en interne ou en communication publique, comme l’auteure d’une décision ou d’une recommandation officielle. La décision reste toujours le fait d’un professionnel imputable.
Cette distinction a aussi une valeur de gestion du changement dans les équipes : elle rassure les professionnels qui craignent de voir leur rôle réduit par la technologie et elle cadre correctement les attentes de ceux qui espèrent que l’IA va résoudre des problèmes qui sont d’abord organisationnels ou politiques.
Développer un regard critique sur les sorties de l’IA
La compétence la plus précieuse qu’un urbaniste peut développer en lien avec l’IA n’est pas de savoir utiliser les outils, c’est de savoir évaluer leurs sorties. Cela suppose de poser systématiquement les mêmes questions devant tout résultat produit par une IA : est-ce que ce texte est exact sur le plan factuel? Est-ce qu’il reflète correctement le cadre réglementaire applicable? Est-ce qu’il tient compte du contexte local que l’outil ne pouvait pas connaître? Est-ce qu’une personne compétente dans ce domaine aurait produit la même analyse?
Ce regard critique ne s’improvise pas. Il se développe par la pratique, par l’exposition à des exemples d’erreurs typiques et par une compréhension minimale du fonctionnement des outils utilisés. C’est précisément ce que couvre une formation en intelligence artificielle conçue pour les urbanistes et équipes municipales québécoises : non pas apprendre à utiliser les boutons, mais développer le jugement professionnel qui permet d’utiliser ces outils de façon responsable.
Questions fréquentes
Est-ce que l’IA va finir par remplacer les urbanistes?
Non, et les raisons exposées dans cette page expliquent pourquoi cette crainte, bien que compréhensible, ne repose pas sur une lecture réaliste de ce que l’IA fait et ne fait pas. Les tâches qui pourraient être automatisées sont celles qui sont répétitives, volumineuses et peu dépendantes du contexte local. Or, le coeur de la pratique urbanistique, soit le jugement territorial, la médiation entre des intérêts contradictoires et la responsabilité professionnelle, n’entre pas dans cette catégorie. Ce qui est davantage probable, c’est que les urbanistes qui maîtrisent ces outils auront un avantage concret sur ceux qui les ignorent, et que certaines tâches administratives actuellement réalisées par des professionnels pourraient être confiées à des techniciens mieux outillés grâce à l’IA.
Comment savoir si un outil d’IA est fiable pour une tâche réglementaire?
En le testant sur des cas dont vous connaissez déjà la réponse correcte. Soumettez à l’outil un extrait de règlement que vous maîtrisez, posez-lui une question dont vous connaissez la réponse exacte et évaluez la précision du résultat. Faites ce test avec plusieurs types de tâches et de documents avant de déployer l’outil dans un contexte où une erreur pourrait avoir des conséquences. Cette approche, simple et rapide, vous donne une base empirique pour calibrer votre niveau de confiance envers l’outil.
L’Ordre des urbanistes du Québec a-t-il encadré l’usage de l’IA dans la pratique professionnelle?
La réflexion est en cours. L’OUQ a publié des contenus sur les enjeux éthiques et déontologiques liés à l’IA dans sa revue Urbanité et a commencé à baliser les responsabilités professionnelles dans ce contexte. À ce jour, il n’existe pas de directive formelle spécifique à l’IA dans le Code de déontologie de l’OUQ, mais les dispositions générales relatives à la compétence, à l’intégrité et à la responsabilité professionnelle s’appliquent pleinement aux actes produits avec l’aide de ces outils. Il est conseillé aux membres de suivre les communications de l’Ordre à mesure que des lignes directrices plus précises prennent forme.
Est-ce qu’utiliser l’IA sur des documents municipaux confidentiels contrevient à la Loi 25?
Potentiellement, oui, selon l’outil utilisé et les données soumises. La Loi 25 encadre la collecte, l’utilisation et la communication de renseignements personnels détenus par les organismes publics, dont les municipalités. Soumettre des données contenant des renseignements personnels de citoyens à une plateforme d’IA externe sans avoir évalué les pratiques de confidentialité de cette plateforme expose la municipalité à un risque de non-conformité. Avant tout déploiement, une évaluation des facteurs relatifs à la vie privée est fortement recommandée, particulièrement pour les tâches impliquant des dossiers de demandes de permis, des plaintes de citoyens ou des données d’évaluation foncière.
Comment aborder le sujet des limites de l’IA avec des élus enthousiastes qui veulent déployer ces outils rapidement?
En commençant par valider l’enthousiasme avant de l’encadrer. Les élus qui souhaitent moderniser les pratiques de leur administration ont raison de s’intéresser à ces outils. L’enjeu n’est pas de freiner cet élan mais de s’assurer que les déploiements sont faits de façon structurée, avec une formation adéquate du personnel, une évaluation des risques de confidentialité et des attentes calibrées sur ce que ces outils peuvent et ne peuvent pas produire. Une présentation courte aux élus, appuyée sur des exemples concrets tirés du contexte municipal québécois, est souvent plus efficace qu’un document technique pour établir ce cadre commun.