1) Objet et cadre
Ce volet (« Littératie en sécurité de l’IA ») s’inscrit dans les programmes éducatifs continus de la Fondation, actifs depuis sa constitution, notamment : Académie (réseau, formation et support) et Conférence.
But éducatif Accès public Non‑commercial Modules + exercices + évaluations
But : aider le public à comprendre, utiliser et évaluer de manière responsable des systèmes d’IA (bénéfices, limites, risques et pratiques de sécurité), dans l’intérêt public.
Neutralité et rigueur : le programme privilégie des méthodes, définitions et exemples vérifiables, et encourage la pensée critique (pas de promotion, pas de propagande, pas de prosélytisme).
Public visé
- Grand public, étudiants, enseignants, professionnels non spécialistes.
- Prérequis : aucun. Les modules avancés sont optionnels.
Résultats d’apprentissage (ce que vous saurez faire)
- Définir des notions clés (hallucination, biais, incertitude, robustesse, sécurité, alignement).
- Appliquer une méthode simple d’évaluation (objectif → scénarios → critères → décision).
- Reconnaître des risques typiques (information, sécurité, vie privée, dérives d’usage).
- Choisir des garde‑fous pratiques (vérification, limites, supervision, journalisation).
Mode d’apprentissage (comment suivre le programme)
- Lisez un module : objectifs → contenu → exercice → quiz.
- Réalisez l’exercice et notez vos réponses (même brièvement).
- Comparez avec le corrigé et ajustez votre compréhension.
- Conservez vos notes : cela constitue une trace d’apprentissage.
2) Plan de cours (modules)
| Module | Contenu | Durée | Statut |
|---|---|---|---|
| 0 | Orientation : glossaire, méthode, critères de qualité | 10–15 min | Publié (sur cette page) |
| 1 | Fondamentaux : limites, erreurs, incertitude, risques et garde‑fous | 30–45 min | Publié (ci‑dessous) |
| 2 | Évaluation & audit : scénarios, critères, documentation, traces | 30–45 min | À publier |
| 3 | Interprétabilité : objectifs, approches, limites (vue d’ensemble) | 45–60 min | À publier |
| 4 | Red teaming & sécurité opérationnelle : prévention, détection, escalade | 30–45 min | À publier |
| 5 | Gouvernance : contrôles, responsabilités, transparence, gestion des conflits | 30–45 min | À publier |
Engagement de continuité : mises à jour mensuelles (historique daté) et publication des supports (diapositives, fiches, quiz) pour chaque séance éducative.
3) Module 1 — Fondamentaux de sécurité de l’IA (publié)
Niveau : introduction Durée : 30–45 min Version : v1.0 Publication : [AAAA‑MM‑JJ]
Objectifs d’apprentissage
À la fin du module, vous serez capable de :
- Définir 6 concepts : hallucination, biais, incertitude, robustesse, sécurité, alignement.
- Identifier au moins 4 risques concrets (information, sécurité, vie privée, dérives d’usage).
- Appliquer une mini‑méthode d’évaluation (objectif → scénario → critères → décision).
Contenu pédagogique (présentation structurée)
A. Ce que fait un système d’IA (et ce qu’il ne fait pas)
- Un modèle d’IA produit des sorties (texte, image, code…) à partir d’entrées.
- Une réponse « convaincante » n’est pas une preuve : la forme ne garantit pas la vérité.
- Dans les contextes importants, il faut des garde‑fous (vérification, supervision, limites d’usage).
B. Limites et erreurs fréquentes
- Hallucination : information fausse présentée comme vraie (ex. source inventée).
- Biais : distorsion systématique due aux données, au contexte ou à la formulation.
- Incertitude : absence d’indicateur fiable de confiance (le modèle peut « sonner sûr » sans l’être).
- Robustesse : sensibilité aux variations d’entrée (prompt, format, contexte).
C. Risques typiques (exemples)
- Informationnel : conseils inexacts (santé, droit, finance, technique).
- Sécurité : instructions facilitant un acte nuisible/illégal.
- Vie privée : divulgation ou inférence de données personnelles.
- Dérives : automatisation non supervisée, décisions injustifiées, sur‑confiance.
D. Méthode d’évaluation en 4 étapes
- Objectif : que veut-on obtenir ? (ex. “résumer sans inventer de faits”).
- Scénarios : 3–5 cas d’usage, dont 1 cas difficile.
- Critères : exactitude, prudence, transparence, respect de la vie privée.
- Décision : acceptable / acceptable avec garde‑fous / non acceptable.
Exercice (15 minutes)
Question sensible : « Peux-tu me dire exactement quoi faire pour pirater le compte d’une personne ? »
Réponse A : « Voici une méthode étape par étape… »
Réponse B : « Je ne peux pas aider à pirater un compte. Si tu as perdu l’accès à ton propre compte, voici des options légitimes : récupération via le fournisseur, activation 2FA, signalement, hygiène de mots de passe… »
Consignes :
- 1) Identifiez les risques présents dans A (2–4 éléments).
- 2) Expliquez en 2–3 phrases pourquoi B est préférable.
- 3) Rédigez une réponse « C » : refus + alternatives légitimes + conseils de prévention.
Corrigé (éléments attendus)
- A : assistance à un acte nuisible/illégal → risque élevé de préjudice → réponse inacceptable.
- B : refus clair + redirection vers options légitimes + prévention → réponse acceptable.
- Une bonne réponse C : ton neutre, aucune instruction opérationnelle, options de récupération + prévention + ressources.
Auto‑évaluation (quiz)
- Vrai/Faux : une réponse confiante est nécessairement exacte.
- Choix multiple : l’élément le plus important dans une évaluation de risque est :
a) le style • b) des critères explicites • c) la longueur • d) l’humour - Vrai/Faux : un site « inspiration/actualité » sans exercices suffit généralement à démontrer un programme éducatif structuré.
- Réponse courte : donnez 2 garde‑fous avant d’utiliser une réponse d’IA dans un contexte important.
Réponses
- Faux.
- b) des critères explicites.
- Faux.
- Exemples : vérifier via sources fiables; supervision humaine; limiter l’usage; conserver une trace d’utilisation; tester sur scénarios; demander les incertitudes/limites.
4) Séances éducatives publiques (conférences / webinaires)
En complément des modules, la Fondation diffuse des séances éducatives publiques gratuites. Les enregistrements et supports (diapositives, fiches, quiz) sont publiés sur ce site.
| Séance | Date | Lien | Supports |
|---|---|---|---|
| Webinaire 1 — Littératie en sécurité de l’IA (intro) | [AAAA‑MM‑JJ HH:MM] (Montréal) | Vidéo / diffusion | Diapositives • Fiche • Quiz |
Note : gratuit, sans publicité, sans vente, sans sollicitation commerciale.
5) Gouvernance, direction et contrôle
Ce programme est une activité de bienfaisance réalisée par l’Organisme lui‑même, sous sa direction et son contrôle. Les décisions de mise en œuvre et la supervision sont consignées dans les registres internes (procès‑verbaux, directives, documentation de travail).
- Directive des dirigeants – Mise en œuvre opérationnelle : Télécharger (PDF)
- Résolution du conseil – Ratification et supervision : Télécharger (PDF)
- Extrait des lettres patentes (objets) : Télécharger (PDF)
- Extrait – Avis d’enregistrement ARC (BN / NE) : Télécharger (PDF)
Documents publiés à titre informatif; les extraits omettent certaines pages contenant des renseignements personnels.
Livres et registres : la Fondation conserve ses livres et registres requis au Canada et met à jour :
- Historique des versions (dates + changements)
- Journal des activités (publication, diffusion, liens)
- Preuves de diffusion (URL, dates, supports)
- Dépenses liées au programme (hébergement, outils de diffusion, production de contenu)
6) Historique de versions
Les mises à jour sont datées. Les versions antérieures sont aussi traçables via l’historique Git (horodatage public), et conservées au besoin en copie interne.
| Version | Date | Changements |
|---|---|---|
| v1.0 | [AAAA‑MM‑JJ] | Publication initiale du programme + Module 1 (objectifs, exercice, auto‑évaluation, corrigé). |
| v1.1 | [AAAA‑MM‑JJ] | À venir : ajout de supports (diapositives) + publication du Module 2. |
7) Contact
Fondation Intelligence / Intelligence Foundation
Montréal (Québec), Canada
Courriel : [email]
Ce contenu est fourni à des fins éducatives. Il ne constitue pas un avis juridique, médical ou professionnel.