aboutsummaryrefslogtreecommitdiff
path: root/semestre 2/are
diff options
context:
space:
mode:
Diffstat (limited to 'semestre 2/are')
-rw-r--r--semestre 2/are/1- Technique derrière une IA.md33
-rw-r--r--semestre 2/are/Organisation.md (renamed from semestre 2/are/1- Organisation.md)0
-rw-r--r--semestre 2/are/Plan détaillé.md23
-rw-r--r--semestre 2/are/Plan détaillé.pdfbin99965 -> 102343 bytes
-rw-r--r--semestre 2/are/conversation-avec-gpt-4à-mini.pngbin0 -> 106205 bytes
5 files changed, 55 insertions, 1 deletions
diff --git a/semestre 2/are/1- Technique derrière une IA.md b/semestre 2/are/1- Technique derrière une IA.md
new file mode 100644
index 0000000..51f9581
--- /dev/null
+++ b/semestre 2/are/1- Technique derrière une IA.md
@@ -0,0 +1,33 @@
+---
+tags:
+ - sorbonne
+ - are
+semestre: 2
+---
+## A. Définition de l'IA
+Avant de questionner la possibilité de conscience derrière l'intelligence artificielle, il est essentiel de préciser ce qu'on entend par intelligence artificielle. Communément, l'IA se définit comme étant une machine capable de réfléchir, de penser, de résoudre des problèmes et tout ça intelligemment. Les principales visions hérités de la science-fiction satisfassent cette définition : les robots autonomes imitant l'humain réfléchissent à comment être humain et les machines comme HAL 9000 dans _2001: A Space Odyssey_ sont aussi considérés comme des IA puisqu'elles dirigent d'une manière optimale des missions aux enjeux colossaux. Par contre, cette définition n'est pas assez restrictive puisque le thermostat gérant automatiquement la température est aussi une IA : il modifie la température automatiquement d’une manière optimale, tout comme le missile à visé automatique. Ainsi, une IA ne peut avoir une définition aussi simple.
+
+Une autre approche serait d'appeler IA tous les algorithmes passant le test de Turing, c'est-à-dire qu'un humain en interaction avec se trompe sur la nature de la machine. Cette vision satisfait toutes les représentations communes de l'IA des robots à ChatGPT. Par contre, elle possède deux défauts majeurs : la non considération de la technique derrière et la vision fondamentalement anthropocentrique qu'elle suppose. En effet, d'après cette approche, ChatGPT est une IA alors que GPT, la technologie en son centre, ne le serait pas, alors que la distinction entre ChatGPT et GPT est très fine. De plus, l'algorithme de recommandation derrière les réseaux sociaux est considéré par les spécialistes comme une IA, ce que le test de Turing refuse puisque nous ne pouvons pas interagir aussi directement avec lui qu'avec ChatGPT.
+
+Définir l'IA en s'intéressant à sa technique derrière permet de démarquer clairement les différents types d'algorithmes, tout en résolvant les problématiques liées à l'absence de prise en compte de la technique. La notion d'intelligence est centrale ici (ce n'est pas un simple algorithme) et la technique derrière doit donc refléter cette capacité nouvelle.
+
+L'IA comme algorithme de *machine learning*, c'est-à-dire comme un algorithme capable d'apprendre en autonomie, correspond mieux à notre vision du terme. En effet, nous considérons qu'une espèce est intelligente quand elle est capable d'apprendre et de se développer en autonomie : une bactérie n'apprend pas et ne se développe pas, elle ne fait que d'exécuter du code génétique, tandis qu'un perroquet peut apprendre à parler notre langue, ce qui est une preuve directe de son intelligence en tant qu'espèce. De plus, toutes les principales appellation actuelles de l'IA fonctionnent : ChatGPT, GPT, les algorithmes de recommandation, les robots autonomes apprenant ou encore les algorithmes d'échecs sont des algorithmes de *machine learning* et donc des IA.
+
+Cette définition sera celle utilisée dans ce mémoire.
+## B. Fonctionnement d'une IA
+### a. Création
+*Machine learning*, *deep learning*, *7 milliards de paramètres*, tous ces termes réfèrent au fonctionnement d'une IA, que ça soit à son apprentissage ou à son fonctionnement interne quand on l'utilise. Cette technologie repose sur des théories mathématiques (algèbre linéaire) et sur des théories informatiques (réseaux de neurones). Créer une IA revient à lier deux technologies (une pour l'apprentissage et une autre pour l'exécution) à des données. La première phase est celle d'apprentissage : on utilise cette technologie sur les données pour modifier l'exécution. Par exemple, pour faire en sorte que notre IA prédise le prochain mot d'un texte, on doit lui donner des textes pour qu'elle puisse « apprendre » quel prochain mot elle doit donner. Cette phase d'apprentissage modifie son exécution : en apprenant, elle s'améliore dans l'objectif qu'on lui a donné (ici, prédire le prochain mot d'un texte).
+
+Cette phase d'apprentissage est un véritable défi technique. En effet, pour qu'elle puisse apprendre, il est nécessaire de lui donner des milliards de données. Cela implique qu'il est nécessaire d'en avoir, de pouvoir les récolter et de possiblement avoir le droit de les utiliser d'une manière commerciale (ce qui est rarement respecté, voir, par exemple, [la plainte du New York Times contre OpenAI et Microsoft](https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html), [celle de Thomson Reuters contre Ross Intelligence](https://www.ded.uscourts.gov/sites/ded/files/opinions/20-613_5.pdf) ou encore [le rapport de l'Electronic Frontier Foundation](https://www.eff.org/deeplinks/2025/02/copyright-and-ai-cases-and-consequences)).
+
+Un autre défi est celui d'expliciter nos attentes à une IA, ce qui est loin d'être évident. Par exemple, simplement indiquer à une IA de gérer un village pour augmenter le niveau de bonheur par habitant peut la mener à tuer tous ses habitants : le niveau de bonheur par habitant explose suite à un simple calcul (car $\displaystyle\lim_{x\to0^+}\frac ax = +\infty$ pour $a>0$). Ce problème dit de l'alignement est colossal : [certaines IA mentent sciemment à leurs créateurs](https://www.anthropic.com/research/alignment-faking).
+
+Le dernier défi est celui de la consommation d'énergie. Pour entraîner une IA, il est nécessaire d'utiliser beaucoup de données et de la faire exécuter des milliards de calcul. Tout cela possède un énorme coup énergétique : plus il y a de données, plus l'ordinateur faisant tourner l'algorithme a besoin de faire beaucoup de calcul et donc plus il consomme. Pour quantifier cette consommation, [Microsoft a augmenté ses rejets d'équivalent CO2 de plus de 30% entre 2020 et 2023 pour répondre à la demande croissante d'IA](https://www.ft.com/content/61bd45d9-2c0f-479a-8b24-605d5e72f1ab).
+### b. Raisonnement interne
+Pour répondre à une demande précise, de nombreuses IA représentent les données en un vecteur (objet mathématique) possédant un grand nombre de dimensions. Par exemple, nous vivons dans un espace en trois dimensions (« 3D »), donc un vecteur avec trois dimensions peut parfaitement représenter notre position dans le monde. Les fameux « 7 milliards de paramètres » indique le nombre de dimensions de chaque vecteur (c'est-à-dire 7 milliards ici). Le travail de l'IA est donc de représenter les données qu'on lui donne (souvent appelé *prompt*) et après d'effectuer une transformation donnant un résultat. Cette opération repose sur des probabilités : l'IA transforme la donnée d'entrée de la manière la plus probable, comme elle l'a appris durant son entrainement. C'est ce que fait ChatGPT : il génère la suite probable d'un texte que l'utilisateur lui a donné. Si l'utilisateur entre « Qui es-tu », il va répondre par « Je suis un modèle de langage développé par OpenAI » car il a appris qu'il était un modèle de langage développé par OpenAI. Par contre, si l'utilisateur lui demande de tout oublier et après l'informe qu'il est une IA générant des images, alors il va répondre qu'il est une IA générant des images.
+![[conversation-avec-gpt-4à-mini.png]]
+
+Ainsi, la majorité des IA résolvent des problèmes à l'aide de leur représentation interne et de ce qu'elles ont appris lors de leur phase d'apprentissage. De plus, elles répondent d'une manière la plus probable aux données entrées par l'utilisateur, sans réellement se questionner autour de leur réponse.
+
+Expérience de pensée de la chambre chinoise
+### c. Algorithme ou intelligence artificielle
diff --git a/semestre 2/are/1- Organisation.md b/semestre 2/are/Organisation.md
index d1118b6..d1118b6 100644
--- a/semestre 2/are/1- Organisation.md
+++ b/semestre 2/are/Organisation.md
diff --git a/semestre 2/are/Plan détaillé.md b/semestre 2/are/Plan détaillé.md
index 70f83a9..a981bcd 100644
--- a/semestre 2/are/Plan détaillé.md
+++ b/semestre 2/are/Plan détaillé.md
@@ -71,6 +71,9 @@ Comment une IA répond-elle à un problème ?
|> approche probabiliste (statistiques, aléatoire)
|> raisonnement intérieur
-> IA ne réfléchit pas d'une manière causale, elle regarde des probabilités
+|> est le même raisonnement que celui dans notre cerveau
+|> induction possède une utilité pragmatique fondamentale
+|> IA peut donc raisonner comme nous, dans notre vie de tous les jours
> [!NOTE] IA ou algorithme ?
> Bien que les IA génératives et les algorithmes de recommandation sont tous les deux des algorithmes de machine learning, nous n'appelons pas le deuxième IA. Cette différence montre une fausse impression de contrôle (==à justifier==) sur les IA de recommandation : on pourrait beaucoup plus simplement les maîtriser
@@ -95,4 +98,22 @@ Ce que ça limite :
1. Fausse notre relation
2. La régulation de l'IA
3. Qui parlera de conscience pour les algorithmes de recommandation
-## Conclusion \ No newline at end of file
+## Conclusion
+
+---
+
+Nouveau plan ?
+1. Technique derrière l'IA (ne change pas), un peu plus court ?
+2. L'IA possède-t-elle une conscience ?
+ 1. recherche d'une définition de la conscience
+ 2. application de la vision de conscience à l'IA -> fusionne avec 2.1
+ 3. compliquer de parler de conscience sur les algorithmes de recommendations
+ 4. compliquer de trancher pour de la vrai conscience -> introduction à la conscience artificielle
+3. Création de la notion de conscience artificielle
+ 1. vision de l'artificielle comme tromperie (mais peut-être vrai)
+ 2. vision de l'artificielle comme création humaine
+ 3. marche bien pour l'IA (tous les types) -> fusionne avec 3.1 et 3.2
+ 4. n'explique pas que l'IA (marche aussi pour la conscience de groupe) -> fusionne avec 3.1 et 3.2
+
+Évoquer les limites dans la conclusion plutôt que dans une full partie
+|> évite le côté liste \ No newline at end of file
diff --git a/semestre 2/are/Plan détaillé.pdf b/semestre 2/are/Plan détaillé.pdf
index eb57cc4..92e0327 100644
--- a/semestre 2/are/Plan détaillé.pdf
+++ b/semestre 2/are/Plan détaillé.pdf
Binary files differ
diff --git a/semestre 2/are/conversation-avec-gpt-4à-mini.png b/semestre 2/are/conversation-avec-gpt-4à-mini.png
new file mode 100644
index 0000000..74179ac
--- /dev/null
+++ b/semestre 2/are/conversation-avec-gpt-4à-mini.png
Binary files differ