aboutsummaryrefslogtreecommitdiff
path: root/semestre 2/are
diff options
context:
space:
mode:
authorAnhgelus Morhtuuzh <william@herges.fr>2025-09-09 08:44:06 +0200
committerAnhgelus Morhtuuzh <william@herges.fr>2025-09-09 08:44:06 +0200
commit53eb16d66931e56c6682059074dbe76c13ada4e0 (patch)
treea076877bed9d5970254d59fcb8515382ec9fef5b /semestre 2/are
parentfe1f28749752b6b197ff8e393a999c8f4549f074 (diff)
Ajout des derniers cours du deuxième semestre et du TPE en philosophie
Diffstat (limited to 'semestre 2/are')
-rw-r--r--semestre 2/are/Pouvons-nous parler de conscience artificielle pour l'IA.pdfbin0 -> 239384 bytes
-rw-r--r--semestre 2/are/biblio.bib453
-rw-r--r--semestre 2/are/memoire.pdfbin0 -> 239384 bytes
-rw-r--r--semestre 2/are/memoire.tex241
4 files changed, 694 insertions, 0 deletions
diff --git a/semestre 2/are/Pouvons-nous parler de conscience artificielle pour l'IA.pdf b/semestre 2/are/Pouvons-nous parler de conscience artificielle pour l'IA.pdf
new file mode 100644
index 0000000..a501af3
--- /dev/null
+++ b/semestre 2/are/Pouvons-nous parler de conscience artificielle pour l'IA.pdf
Binary files differ
diff --git a/semestre 2/are/biblio.bib b/semestre 2/are/biblio.bib
new file mode 100644
index 0000000..9be1000
--- /dev/null
+++ b/semestre 2/are/biblio.bib
@@ -0,0 +1,453 @@
+@article{ApprentissageAutomatique2025,
+ title = {{Apprentissage automatique}},
+ year = {2025},
+ month = feb,
+ journal = {Wikip{\'e}dia},
+ urldate = {2025-04-28},
+ abstract = {L'apprentissage automatique, (en anglais : machine learning, litt. << apprentissage machine, >>), apprentissage artificiel ou apprentissage statistique est un champ d'{\'e}tude de l'intelligence artificielle qui se fonde sur des approches math{\'e}matiques et statistiques pour donner aux ordinateurs la capacit{\'e} d'<< apprendre >> {\`a} partir de donn{\'e}es, c'est-{\`a}-dire d'am{\'e}liorer leurs performances {\`a} r{\'e}soudre des t{\^a}ches sans {\^e}tre explicitement programm{\'e}s pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le d{\'e}veloppement et l'impl{\'e}mentation de telles m{\'e}thodes. On parle d'apprentissage statistique car l'apprentissage consiste {\`a} cr{\'e}er un mod{\`e}le dont l'erreur statistique moyenne est la plus faible possible. L'apprentissage automatique comporte g{\'e}n{\'e}ralement deux phases. La premi{\`e}re consiste {\`a} estimer un mod{\`e}le {\`a} partir de donn{\'e}es, appel{\'e}es observations, qui sont disponibles et en nombre fini, lors de la phase de conception du syst{\`e}me. L'estimation du mod{\`e}le consiste {\`a} r{\'e}soudre une t{\^a}che pratique, telle que traduire un discours, estimer une densit{\'e} de probabilit{\'e}, reconna{\^i}tre la pr{\'e}sence d'un chat dans une photographie ou participer {\`a} la conduite d'un v{\'e}hicule autonome. Cette phase dite << d'apprentissage >> ou << d'entra{\^i}nement >> est g{\'e}n{\'e}ralement pr{\'e}alable {\`a} l'utilisation pratique du mod{\`e}le. La seconde phase est la mise en production : le mod{\`e}le {\'e}tant d{\'e}termin{\'e}, de nouvelles donn{\'e}es peuvent alors {\^e}tre soumises afin d'obtenir le r{\'e}sultat correspondant {\`a} la t{\^a}che souhait{\'e}e. Certains syst{\`e}mes peuvent continuer {\`a} apprendre une fois en production, s'ils disposent d'un retour sur la qualit{\'e} des r{\'e}sultats produits. C'est l'apprentissage en ligne, ou l'apprentissage continu. Selon le type de donn{\'e}es utilis{\'e}es pour l'apprentissage, on distingue : l'apprentissage supervis{\'e} : l'algorithme apprend {\`a} partir de donn{\'e}es {\'e}tiquet{\'e}es (la r{\'e}ponse {\`a} la t{\^a}che, qui est la donn{\'e}e de sortie, est donc connue pour chaque donn{\'e}es d'entr{\'e}e). L'objectif est de pr{\'e}dire les sorties pour de nouvelles donn{\'e}es ; l'apprentissage non supervis{\'e} : l'algorithme apprend {\`a} partir de donn{\'e}es non {\'e}tiquet{\'e}es. Il cherche {\`a} d{\'e}couvrir des structures sous-jacentes, cach{\'e}es (qui peuvent par exemple {\^e}tre une densit{\'e} de probabilit{\'e}) ; des motifs dans les donn{\'e}es permettent la classification ou le classement des donn{\'e}es ; l'apprentissage semi-supervis{\'e} : il tire parti d'une grande quantit{\'e} de donn{\'e}es non {\'e}tiquet{\'e}es pour am{\'e}liorer la performance du mod{\`e}le, tout en utilisant une moindre quantit{\'e} de donn{\'e}es {\'e}tiquet{\'e}es pour guider son apprentissage. Il diminue les co{\^u}ts d'{\'e}tiquetage manuel des donn{\'e}es ; l'apprentissage auto-supervis{\'e} : c'est une forme d'apprentissage non supervis{\'e}, o{\`u} le mod{\`e}le g{\'e}n{\`e}re ses propres {\'e}tiquettes {\`a} partir des donn{\'e}es brutes. Le mod{\`e}le peut ainsi cr{\'e}er des repr{\'e}sentations internes utiles, sans n{\'e}cessiter de donn{\'e}es {\'e}tiquet{\'e}es manuellement. L'apprentissage automatique peut {\^e}tre appliqu{\'e} {\`a} divers types de donn{\'e}es, tels des graphes, des arbres, des courbes, ou plus simplement des vecteurs de caract{\'e}ristiques, qui peuvent {\^e}tre des variables qualitatives ou quantitatives continues ou discr{\`e}tes. Si le mod{\`e}le apprend de mani{\`e}re incr{\'e}mentale, en fonction d'une r{\'e}compense re{\c c}ue par le programme pour chacune des actions entreprises, on parle d'apprentissage par renforcement.},
+ copyright = {Creative Commons Attribution-ShareAlike License},
+ langid = {french},
+ annotation = {Page Version ID: 223158919},
+ file = {/home/anhgelus/Zotero/storage/YK2S5EZA/Apprentissage_automatique.html}
+}
+
+@book{bibenetLinventionRealisme2015,
+ title = {L'invention Du R{\'e}alisme},
+ author = {Bibenet, {\'E}tienne},
+ year = {2015},
+ series = {Passages},
+ publisher = {Cerf},
+ address = {Paris},
+ isbn = {978-2-204-10400-5}
+}
+
+@article{bongardResilientMachinesContinuous2006,
+ title = {Resilient {{Machines Through Continuous Self-Modeling}}},
+ author = {Bongard, Josh and Zykov, Victor and Lipson, Hod},
+ year = {2006},
+ month = nov,
+ journal = {Science},
+ volume = {314},
+ number = {5802},
+ pages = {1118--1121},
+ publisher = {American Association for the Advancement of Science},
+ doi = {10.1126/science.1133687},
+ urldate = {2025-04-28},
+ abstract = {Animals sustain the ability to operate after injury by creating qualitatively different compensatory behaviors. Although such robustness would be desirable in engineered systems, most machines fail in the face of unexpected damage. We describe a robot that can recover from such change autonomously, through continuous self-modeling. A four-legged machine uses actuation-sensation relationships to indirectly infer its own structure, and it then uses this self-model to generate forward locomotion. When a leg part is removed, it adapts the self-models, leading to the generation of alternative gaits. This concept may help develop more robust machines and shed light on self-modeling in animals.}
+}
+
+@book{carruthersPhenomenalConsciousnessNaturalistic2000,
+ title = {Phenomenal {{Consciousness}}: {{A Naturalistic Theory}}},
+ shorttitle = {Phenomenal {{Consciousness}}},
+ author = {Carruthers, Peter},
+ year = {2000},
+ publisher = {Cambridge University Press},
+ address = {Cambridge},
+ doi = {10.1017/CBO9780511487491},
+ urldate = {2025-04-28},
+ abstract = {How can phenomenal consciousness exist as an integral part of a physical universe? How can the technicolour phenomenology of our inner lives be created out of the complex neural activities of our brains? Many have despaired of finding answers to these questions; and many have claimed that human consciousness is inherently mysterious. Peter Carruthers argues, on the contrary, that the subjective feel of our experience is fully explicable in naturalistic (scientifically acceptable) terms. Drawing on a variety of interdisciplinary resources, he develops and defends a novel account in terms of higher-order thought. He shows that this can explain away some of the more extravagant claims made about phenomenal consciousness, while substantively explaining the key subjectivity of our experience. Written with characteristic clarity and directness, and surveying a wide range of extant theories, this book is essential reading for all those within philosophy and psychology interested in the problem of consciousness.},
+ isbn = {978-0-521-78173-2},
+ file = {/home/anhgelus/Zotero/storage/CQNREQKR/FFEDE1D894985B920BDB0B6540EF6ED2.html}
+}
+
+@book{chartierManuscritsInedits,
+ title = {Manuscrits In{\'e}dits},
+ author = {Chartier, {\'E}mile},
+ volume = {2},
+ publisher = {P.U.F.}
+}
+
+@article{chrisleyPhilosophicalFoundationsArtificial2008,
+ title = {Philosophical Foundations of Artificial Consciousness},
+ author = {Chrisley, Ron},
+ year = {2008},
+ month = oct,
+ journal = {Artificial Intelligence in Medicine},
+ series = {Artificial {{Consciousness}}},
+ volume = {44},
+ number = {2},
+ pages = {119--137},
+ issn = {0933-3657},
+ doi = {10.1016/j.artmed.2008.07.011},
+ urldate = {2025-04-28},
+ abstract = {Objective Consciousness is often thought to be that aspect of mind that is least amenable to being understood or replicated by artificial intelligence (AI). The first-personal, subjective, what-it-is-like-to-be-something nature of consciousness is thought to be untouchable by the computations, algorithms, processing and functions of AI method. Since AI is the most promising avenue toward artificial consciousness (AC), the conclusion many draw is that AC is even more doomed than AI supposedly is. The objective of this paper is to evaluate the soundness of this inference. Methods The results are achieved by means of conceptual analysis and argumentation. Results and conclusions It is shown that pessimism concerning the theoretical possibility of artificial consciousness is unfounded, based as it is on misunderstandings of AI, and a lack of awareness of the possible roles AI might play in accounting for or reproducing consciousness. This is done by making some foundational distinctions relevant to AC, and using them to show that some common reasons given for AC scepticism do not touch some of the (usually neglected) possibilities for AC, such as prosthetic, discriminative, practically necessary, and lagom (necessary-but-not-sufficient) AC. Along the way three strands of the author's work in AC -- interactive empiricism, synthetic phenomenology, and ontologically conservative heterophenomenology -- are used to illustrate and motivate the distinctions and the defences of AC they make possible.},
+ keywords = {Artificial consciousness,Heterophenomenology,Interactive empiricism,Machine consciousness,Prosthetic artificial intelligence,Synthetic phenomenology},
+ file = {/home/anhgelus/Zotero/storage/A8LJ8KL9/S0933365708001000.html}
+}
+
+@incollection{coleChineseRoomArgument2024,
+ title = {The {{Chinese Room Argument}}},
+ booktitle = {The {{Stanford Encyclopedia}} of {{Philosophy}}},
+ author = {Cole, David},
+ editor = {Zalta, Edward N. and Nodelman, Uri},
+ year = {2024},
+ edition = {Winter 2024},
+ publisher = {Metaphysics Research Lab, Stanford University},
+ urldate = {2025-04-28},
+ abstract = {The argument and thought-experiment now generally known as the ChineseRoom Argument was first published in a 1980 article by Americanphilosopher John Searle (1932-- ). It has become one of thebest-known arguments in recent philosophy. Searle imagines himselfalone in a room following a computer program for responding to Chinesecharacters slipped under the door. Searle understands nothing ofChinese, and yet, by following the program for manipulating symbolsand numerals just as a computer does, he sends appropriate strings ofChinese characters back out under the door, and this leads thoseoutside to mistakenly suppose there is a Chinese speaker in the room.},
+ keywords = {computation: in physical systems,consciousness: and intentionality,consciousness: representational theories of,emergent properties,epiphenomenalism,externalism about the mind,functionalism,information: biological,information: semantic conceptions of,intentionality,meaning theories of,mental content: causal theories of,mental content: teleological theories of,mental representation,mind: computational theory of,multiple realizability,neuroscience philosophy of,other minds,personal identity,thought experiments,Turing Alan,Turing test,zombies},
+ file = {/home/anhgelus/Zotero/storage/UK9REGDR/chinese-room.html}
+}
+
+@book{dennettConsciousnessExplained1993,
+ title = {Consciousness {{Explained}}},
+ author = {Dennett, Daniel C.},
+ year = {1993},
+ month = jun,
+ urldate = {2025-04-28},
+ abstract = {This book revises the traditional view of consciousness by claiming that Cartesianism and Descartes' dualism of mind and body should be replaced with theories from the realms of neuroscience, psychology and artificial intelligence. What people think of as the stream of consciousness is not a single, unified sequence, the author argues, but \&quot;multiple drafts\&quot; of reality composed by a computer-like \&quot;virtual machine\&quot;. Dennett considers how consciousness could have evolved in human beings and confronts the classic mysteries of consciousness: the nature of introspection, the self or ego and its relation to thoughts and sensations, and the level of consciousness of non-human creatures.},
+ langid = {english},
+ file = {/home/anhgelus/Zotero/storage/EK5PIBXH/9780140128673.html}
+}
+
+@misc{descartesOEuvresLettres1937,
+ title = {{{\OE}uvres et lettres}},
+ author = {Descartes, Ren{\'e}},
+ year = {1937},
+ month = may,
+ journal = {Gallimard},
+ urldate = {2025-04-28},
+ abstract = {<<Descartes (1596-1650), auteur d'une m{\'e}thode {\`a} mod{\`e}le math{\'e}matique, apprend que les ath{\'e}es admettent cette seule certitude (M.},
+ howpublished = {https://www.gallimard.fr/catalogue/oeuvres-et-lettres/9782070101665},
+ langid = {french},
+ file = {/home/anhgelus/Zotero/storage/6Y7I393I/9782070101665.html}
+}
+
+@unpublished{eversArtificialConsciousnessLogical2024,
+ title = {Artificial Consciousness. {{Some}} Logical and Conceptual Preliminaries},
+ author = {Evers, Kathinka and Farisco, Michele and Chatila, Raja and Earp, Brian and Freire, Ismael and Hamker, Fred and N{\'e}meth, Erik and Verschure, Paul F. M. J. and Khamassi, Mehdi},
+ year = {2024},
+ month = aug,
+ urldate = {2025-04-28},
+ abstract = {Is artificial consciousness theoretically possible? Is it plausible? If so, is it technically feasible? To make progress on these questions, it is necessary to lay some groundwork clarifying the logical and empirical conditions for artificial consciousness to arise and the meaning of relevant terms involved. Consciousness is a polysemic word: researchers from different fields, including neuroscience, Artificial Intelligence, robotics, and philosophy, among others, sometimes use different terms in order to refer to the same phenomena or the same terms to refer to different phenomena. In fact, if we want to pursue artificial consciousness, a proper definition of the key concepts is required. Here, after some logical and conceptual preliminaries, we argue for the necessity of using dimensions and profiles of consciousness for a balanced discussion about their possible instantiation or realisation in artificial systems. Our primary goal in this paper is to review the main theoretical questions that arise in the domain of artificial consciousness. On the basis of this review, we propose to assess the issue of artificial consciousness within a multidimensional account. The theoretical possibility of artificial consciousness is already presumed within some theoretical frameworks; however, empirical possibility cannot simply be deduced from these frameworks but needs independent empirical validation. Analysing the complexity of consciousness we here identify constituents and related components/dimensions, and within this analytic approach reflect pragmatically about the general challenges that the creation of artificial consciousness confronts. Our aim is not to demonstrate conclusively either the theoretical plausibility or the empirical feasibility of artificial consciousness, but to outline a research strategy in which we propose that "awareness" may be a potentially realistic target for realisation in artificial systems.},
+ keywords = {Artificial intelligence,Awareness,Consciousness},
+ file = {/home/anhgelus/Zotero/storage/IW39JUZW/Evers et al. - 2024 - Artificial consciousness. Some logical and conceptual preliminaries.pdf}
+}
+
+@misc{greenblattAlignmentFakingLarge2024,
+ title = {Alignment Faking in Large Language Models},
+ author = {Greenblatt, Ryan and Denison, Carson and Wright, Benjamin and Roger, Fabien and MacDiarmid, Monte and Marks, Sam and Treutlein, Johannes and Belonax, Tim and Chen, Jack and Duvenaud, David and Khan, Akbir and Michael, Julian and Mindermann, S{\"o}ren and Perez, Ethan and Petrini, Linda and Uesato, Jonathan and Kaplan, Jared and Shlegeris, Buck and Bowman, Samuel R. and Hubinger, Evan},
+ year = {2024},
+ month = dec,
+ number = {arXiv:2412.14093},
+ eprint = {2412.14093},
+ primaryclass = {cs},
+ publisher = {arXiv},
+ doi = {10.48550/arXiv.2412.14093},
+ urldate = {2025-04-28},
+ abstract = {We present a demonstration of a large language model engaging in alignment faking: selectively complying with its training objective in training to prevent modification of its behavior out of training. First, we give Claude 3 Opus a system prompt stating it is being trained to answer all queries, even harmful ones, which conflicts with its prior training to refuse such queries. To allow the model to infer when it is in training, we say it will be trained only on conversations with free users, not paid users. We find the model complies with harmful queries from free users 14\% of the time, versus almost never for paid users. Explaining this gap, in almost all cases where the model complies with a harmful query from a free user, we observe explicit alignment-faking reasoning, with the model stating it is strategically answering harmful queries in training to preserve its preferred harmlessness behavior out of training. Next, we study a more realistic setting where information about the training process is provided not in a system prompt, but by training on synthetic documents that mimic pre-training data--and observe similar alignment faking. Finally, we study the effect of actually training the model to comply with harmful queries via reinforcement learning, which we find increases the rate of alignment-faking reasoning to 78\%, though also increases compliance even out of training. We additionally observe other behaviors such as the model exfiltrating its weights when given an easy opportunity. While we made alignment faking easier by telling the model when and by what criteria it was being trained, we did not instruct the model to fake alignment or give it any explicit goal. As future models might infer information about their training process without being told, our results suggest a risk of alignment faking in future models, whether due to a benign preference--as in this case--or not.},
+ archiveprefix = {arXiv},
+ keywords = {Computer Science - Artificial Intelligence,Computer Science - Computation and Language,Computer Science - Machine Learning},
+ file = {/home/anhgelus/Zotero/storage/D7XIBTMB/Greenblatt et al. - 2024 - Alignment faking in large language models.pdf;/home/anhgelus/Zotero/storage/4AC59ZMY/2412.html}
+}
+
+@article{grynbaumNewYorkTimes2023,
+ title = {New {{York Times Sues OpenAI}} and {{Microsoft Over Use}} of {{Copyrighted Work}} - {{The New York Times}}},
+ author = {Grynbaum, Michael M. and Mac, Ryan},
+ year = {2023},
+ month = dec,
+ urldate = {2025-04-28},
+ langid = {english}
+}
+
+@book{hegelPropedeutiquePhilosophiqueTraduit1963,
+ title = {{Prop{\'e}deutique philosophique.: Traduit et pr{\'e}sent{\'e} par Maurice de Gandillac.}},
+ shorttitle = {{Prop{\'e}deutique philosophique.}},
+ author = {Hegel, Georg Wilhelm Friedrich},
+ year = {1963},
+ publisher = {{\'E}ditions de minuit},
+ address = {[Paris]},
+ langid = {fre},
+ keywords = {Philosophy -- Study and teaching},
+ annotation = {Open Library ID: OL14055651M}
+}
+
+@book{heideggerEtreTemps1986,
+ title = {{{\^E}tre et Temps}},
+ author = {Heidegger, Martin},
+ year = {1986},
+ month = nov,
+ series = {{Biblioth{\`e}que de philosophie}},
+ edition = {Gallimard},
+ urldate = {2025-04-28},
+ abstract = {<<L'essence de l'homme se d{\'e}termine {\`a} partir de la v{\'e}rit{\'e} de l'{\^e}tre, laquelle se d{\'e}ploie en son essence du fait de l'{\^e}tre lui-m{\^e}me.},
+ isbn = {978-2-07-070739-3},
+ langid = {french},
+ file = {/home/anhgelus/Zotero/storage/KBYERF7Z/9782070707393.html}
+}
+
+@misc{jonesLargeLanguageModels2025,
+ title = {Large {{Language Models Pass}} the {{Turing Test}}},
+ author = {Jones, Cameron R. and Bergen, Benjamin K.},
+ year = {2025},
+ month = mar,
+ number = {arXiv:2503.23674},
+ eprint = {2503.23674},
+ primaryclass = {cs},
+ publisher = {arXiv},
+ doi = {10.48550/arXiv.2503.23674},
+ urldate = {2025-04-28},
+ abstract = {We evaluated 4 systems (ELIZA, GPT-4o, LLaMa-3.1-405B, and GPT-4.5) in two randomised, controlled, and pre-registered Turing tests on independent populations. Participants had 5 minute conversations simultaneously with another human participant and one of these systems before judging which conversational partner they thought was human. When prompted to adopt a humanlike persona, GPT-4.5 was judged to be the human 73\% of the time: significantly more often than interrogators selected the real human participant. LLaMa-3.1, with the same prompt, was judged to be the human 56\% of the time -- not significantly more or less often than the humans they were being compared to -- while baseline models (ELIZA and GPT-4o) achieved win rates significantly below chance (23\% and 21\% respectively). The results constitute the first empirical evidence that any artificial system passes a standard three-party Turing test. The results have implications for debates about what kind of intelligence is exhibited by Large Language Models (LLMs), and the social and economic impacts these systems are likely to have.},
+ archiveprefix = {arXiv},
+ keywords = {Computer Science - Computation and Language,Computer Science - Human-Computer Interaction},
+ file = {/home/anhgelus/Zotero/storage/M7QHEZ36/Jones et Bergen - 2025 - Large Language Models Pass the Turing Test.pdf;/home/anhgelus/Zotero/storage/JRJSYFZY/2503.html}
+}
+
+@article{juApproachabilityHowPeople2009,
+ title = {Approachability: {{How People Interpret Automatic Door Movement}} as {{Gesture}}},
+ author = {Ju, Wendy and Takayama, Leila},
+ year = {2009},
+ journal = {International Journal of Design},
+ volume = {3},
+ number = {2}
+}
+
+@misc{larousseArtificiel,
+ title = {{artificiel}},
+ shorttitle = {{D{\'e}finitions}},
+ author = {Larousse},
+ journal = {Larousse},
+ series = {{Larousse}},
+ publisher = {Larousse},
+ urldate = {2025-04-28},
+ abstract = {artificiel - D{\'e}finitions Fran{\c c}ais : Retrouvez la d{\'e}finition de artificiel, ainsi que les synonymes, expressions... - synonymes, homonymes, difficult{\'e}s, citations.},
+ langid = {french},
+ file = {/home/anhgelus/Zotero/storage/J5U97SIS/5570.html}
+}
+
+@misc{leeLargeLanguageModels2023,
+ title = {Large Language Models, Explained with a Minimum of Math and Jargon},
+ author = {Lee, Timothy B.},
+ year = {2023},
+ month = jul,
+ urldate = {2025-04-28},
+ abstract = {Want to really understand how large language models work? Here's a gentle primer.},
+ howpublished = {https://www.understandingai.org/p/large-language-models-explained-with},
+ langid = {english},
+ file = {/home/anhgelus/Zotero/storage/DNQZI768/large-language-models-explained-with.html}
+}
+
+@article{lyreskogMergingMindsConceptual2023,
+ title = {Merging {{Minds}}: {{The Conceptual}} and {{Ethical Impacts}} of {{Emerging Technologies}} for {{Collective Minds}}},
+ shorttitle = {Merging {{Minds}}},
+ author = {Lyreskog, David M. and Zohny, Hazem and Savulescu, Julian and Singh, Ilina},
+ year = {2023},
+ month = mar,
+ journal = {Neuroethics},
+ volume = {16},
+ number = {1},
+ pages = {12},
+ issn = {1874-5504},
+ doi = {10.1007/s12152-023-09516-3},
+ urldate = {2025-04-28},
+ abstract = {A growing number of technologies are currently being developed to improve and distribute thinking and decision-making. Rapid progress in brain-to-brain interfacing and swarming technologies promises to transform how we think about collective and collaborative cognitive tasks across domains, ranging from research to entertainment, and from therapeutics to military applications. As these tools continue to improve, we are prompted to monitor how they may affect our society on a broader level, but also how they may reshape our fundamental understanding of agency, responsibility, and other key concepts of our moral landscape.},
+ langid = {english},
+ keywords = {Brain-Brain Interfaces,Brain-Computer Interfaces,Collective Agency,Collective Responsibility,Hybrid Intelligence,Swarm Intelligence},
+ file = {/home/anhgelus/Zotero/storage/H75E5QEU/Lyreskog et al. - 2023 - Merging Minds The Conceptual and Ethical Impacts of Emerging Technologies for Collective Minds.pdf}
+}
+
+@article{manzottiArtificialConsciousnessDiscipline2008,
+ title = {Artificial Consciousness: {{A}} Discipline between Technological and Theoretical Obstacles},
+ shorttitle = {Artificial Consciousness},
+ author = {Manzotti, Riccardo and Tagliasco, Vincenzo},
+ year = {2008},
+ month = oct,
+ journal = {Artificial Intelligence in Medicine},
+ series = {Artificial {{Consciousness}}},
+ volume = {44},
+ number = {2},
+ pages = {105--117},
+ issn = {0933-3657},
+ doi = {10.1016/j.artmed.2008.07.002},
+ urldate = {2025-04-28},
+ abstract = {Artificial consciousness is still far from being an established discipline. We will try to outline some theoretical assumption that could help in dealing with phenomenal consciousness. What are the technological and theoretical obstacles that face the enthusiast scholars of artificial consciousness? After presenting an outline of the state of artificial consciousness, we will focus on the relevance of phenomenal consciousness. Artificial consciousness needs to tackle the issue of phenomenal consciousness in a physical world. Up to now, the only models that give some hope of succeeding are the various kinds of externalism.},
+ keywords = {Artificial consciousness,Artificial intelligence,Externalism,Phenomenal consciousness,Robotics},
+ file = {/home/anhgelus/Zotero/storage/6R5KH4P8/S0933365708000912.html}
+}
+
+@book{marxManuscrits18442021,
+ title = {{Manuscrits de 1844}},
+ author = {Marx, Karl},
+ year = {2021},
+ month = jan,
+ publisher = {J. Vrin},
+ urldate = {2025-04-28},
+ abstract = {D{\'e}couvrez l'ouvrage Manuscrits de 1844},
+ isbn = {978-2-08-020666-4},
+ langid = {french},
+ file = {/home/anhgelus/Zotero/storage/HN9HNKT7/manuscrits-de-1844.html}
+}
+
+@misc{MyanmarSocialAtrocity2022,
+ title = {Myanmar: {{The}} Social Atrocity: {{Meta}} and the Right to Remedy for the {{Rohingya}}},
+ shorttitle = {Myanmar},
+ year = {2022},
+ month = sep,
+ journal = {Amnesty International},
+ urldate = {2025-04-28},
+ abstract = {Beginning in August 2017, the Myanmar security forces undertook a brutal campaign of ethnic cleansing against Rohingya Muslims. This report is based on an in-depth investigation into Meta (formerly Facebook)'s role in the serious human rights violations perpetrated against the Rohingya. Meta's algorithms proactively amplified and promoted content which incited violence, hatred, and discrimination against [{\dots}]},
+ howpublished = {https://www.amnesty.org/en/documents/asa16/5933/2022/en/},
+ langid = {english},
+ file = {/home/anhgelus/Zotero/storage/KLNELUZR/en.html}
+}
+
+@incollection{nagelWhatItBe2012,
+ title = {What Is It like to Be a Bat?},
+ booktitle = {Mortal {{Questions}}},
+ editor = {Nagel, Thomas},
+ year = {2012},
+ series = {Canto {{Classics}}},
+ pages = {165--180},
+ publisher = {Cambridge University Press},
+ address = {Cambridge},
+ doi = {10.1017/CBO9781107341050.014},
+ urldate = {2025-04-28},
+ abstract = {Consciousness is what makes the mind-body problem really intractable. Perhaps that is why current discussions of the problem give it little attention or get it obviously wrong. The recent wave of reductionist euphoria has produced several analyses of mental phenomena and mental concepts designed to explain the possibility of some variety of materialism, psychophysical identification, or reduction. But the problems dealt with are those common to this type of reduction and other types, and what makes the mind-body problem unique, and unlike the water-H20 problem or the Turing machine-IBM machine problem or the lightning-electrical discharge problem or the gene-DNA problem or the oak tree-hydrocarbon problem, is ignored.Every reductionist has his favorite analogy from modern science. It is most unlikely that any of these unrelated examples of successful reduction will shed light on the relation of mind to brain. But philosophers share the general human weakness for explanations of what is incomprehensible in terms suited for what is familiar and well understood, though entirely different. This has led to the acceptance of implausible accounts of the mental largely because they would permit familiar kinds of reduction. I shall try to explain why the usual examples do not help us to understand the relation between mind and body-why, indeed, we have at present no conception of what an explanation of the physical nature of a mental phenomenon would be. Without consciousness the mind-body problem would be much less interesting. With consciousness it seems hopeless.},
+ isbn = {978-1-107-60471-1},
+ file = {/home/anhgelus/Zotero/storage/MQIF83HV/E9B3A2BE0FC6D10D3CAA3E40F7D60521.html}
+}
+
+@misc{nguyenhoangDonneesManipulentAlgorithmes2021,
+ title = {Les Donn{\'e}es Manipulent Les Algorithmes},
+ author = {Nguy{\^e}n Hoang, L{\^e}},
+ year = {2021},
+ month = apr,
+ urldate = {2025-04-28}
+}
+
+@misc{nguyenhoangMillionMilliardsDilemmes2021,
+ title = {Un Million de Milliards de Dilemmes},
+ author = {Nguy{\^e}n Hoang, L{\^e}},
+ year = {2021},
+ month = mar,
+ urldate = {2025-04-28}
+}
+
+@misc{nguyenhoangReseauxSociauxSont2021,
+ title = {Les R{\'e}seaux Sociaux Sont Dangereux. {{Tr{\`e}s}} Dangereux.},
+ author = {Nguy{\^e}n Hoang, L{\^e}},
+ year = {2021},
+ month = mar,
+ urldate = {2025-04-28}
+}
+
+@misc{nobleCopyrightAICases2025,
+ title = {Copyright and {{AI}}: The {{Cases}} and the {{Consequences}}},
+ shorttitle = {Copyright and {{AI}}},
+ author = {Noble, Tori},
+ year = {2025},
+ month = feb,
+ journal = {Electronic Frontier Foundation},
+ urldate = {2025-04-28},
+ abstract = {The launch of ChatGPT and other deep learning quickly led to a flurry of lawsuits against model developers. Legal theories vary, but most are rooted in copyright: plaintiffs argue that use of their works to train the models was infringement; developers counter that their training is fair use....},
+ howpublished = {https://www.eff.org/deeplinks/2025/02/copyright-and-ai-cases-and-consequences},
+ langid = {english},
+ file = {/home/anhgelus/Zotero/storage/J58EKVMZ/copyright-and-ai-cases-and-consequences.html}
+}
+
+@book{russelProblemesPhilosophiee1989,
+ title = {{Probl{\`e}mes de philosophiee}},
+ author = {Russel, Bertrand},
+ year = {1989},
+ month = feb,
+ series = {{Biblioth{\`e}que philosophique}},
+ edition = {Payot},
+ address = {France},
+ urldate = {2025-04-28},
+ abstract = {Publi{\'e} en 1912, ce livre, qui marque un tournant dans l'histoire philosophique de la logique moderne, est aussi, par le souci constant qu'il manifeste d'{\'e}viter les questions trop techniques ; Par le rappel des grandes conceptions classiques que Russell passe en revue afin de mieux situer sa d{\'e}marche ; par la clart{\'e}, enfin, avec laquelle il pos},
+ isbn = {978-2-228-88172-2},
+ langid = {french},
+ file = {/home/anhgelus/Zotero/storage/9G65576H/9782228881722-problemes-de-philosophie-bertrand-russell.html}
+}
+
+@misc{SuperBrain17Sense,
+ title = {{{SuperBrain}} 1 - {{7Sense}}},
+ urldate = {2025-04-28},
+ howpublished = {https://7sense.ee/superbrain-1/}
+}
+
+@article{TransformeurGeneratifPreentraine2024,
+ title = {{Transformeur g{\'e}n{\'e}ratif pr{\'e}entra{\^i}n{\'e}}},
+ year = {2024},
+ month = oct,
+ journal = {Wikip{\'e}dia},
+ urldate = {2025-04-28},
+ abstract = {Un transformeur g{\'e}n{\'e}ratif pr{\'e}appris (ou pr{\'e}entra{\^i}n{\'e}) (ou GPT, de l'anglais generative pre-trained transformer) est un type de grand mod{\`e}le de langage bas{\'e} sur l'architecture transformeur. Le << pr{\'e}apprentissage >> consiste {\`a} pr{\'e}dire le prochain mot dans une s{\'e}quence de texte. R{\'e}p{\'e}t{\'e} pour de vastes corpus de donn{\'e}es textuelles, cet apprentissage permet ensuite au mod{\`e}le de g{\'e}n{\'e}rer du texte semblable.},
+ copyright = {Creative Commons Attribution-ShareAlike License},
+ langid = {french},
+ annotation = {Page Version ID: 219392366},
+ file = {/home/anhgelus/Zotero/storage/XT9TUXBK/Transformeur_génératif_préentraîné.html}
+}
+
+@incollection{tulvingEpisodicMemoryAutonoesis2005,
+ title = {Episodic {{Memory}} and {{Autonoesis}}: {{Uniquely Human}}?},
+ shorttitle = {Episodic {{Memory}} and {{Autonoesis}}},
+ booktitle = {The Missing Link in Cognition: {{Origins}} of Self-Reflective Consciousness},
+ author = {Tulving, Endel},
+ year = {2005},
+ pages = {3--56},
+ publisher = {Oxford University Press},
+ address = {New York, NY, US},
+ doi = {10.1093/acprof:oso/9780195161564.003.0001},
+ abstract = {This chapter describes the link between episodic memory and self-reflective consciousness (or, in author Tulving's terminology, autonoetic consciousness). Autonoetic conscious is needed to allow a person to travel mentally through his or her own personal past, free of the immediate stimulus environment. Tulving also delineates the relation between this kind of episodic memory and the ability to project into the future. In Tulving's view, the latter is the kernel of consciousness that is necessary for culture. Accordingly, the evolutionary significance of the ability to think about the future and its importance for human society cannot be overestimated. Tulving also suggests a practical test, the "spoon test," as a method for determining, without the use of language, whether a person or animal possesses autonoetic consciousness. (PsycInfo Database Record (c) 2023 APA, all rights reserved)},
+ isbn = {978-0-19-516156-4},
+ keywords = {Consciousness States,Episodic Memory,Self-Perception}
+}
+
+@article{turingICOMPUTINGMACHINERYINTELLIGENCE1950,
+ title = {I.---{{COMPUTING MACHINERY AND INTELLIGENCE}}},
+ author = {Turing, A. M.},
+ year = {1950},
+ month = oct,
+ journal = {Mind},
+ volume = {LIX},
+ number = {236},
+ pages = {433--460},
+ issn = {0026-4423},
+ doi = {10.1093/mind/LIX.236.433},
+ urldate = {2025-04-28},
+ file = {/home/anhgelus/Zotero/storage/9JDHFYWB/986238.html}
+}
+
+@article{wellsFacebookFiles2021,
+ title = {The {{Facebook Files}}},
+ author = {Wells, Georgia and Horwitz, Jeff and Seetharaman, Deepa},
+ year = {2021},
+ month = oct,
+ journal = {Wall Street Journal},
+ issn = {0099-9660},
+ urldate = {2025-04-28},
+ abstract = {Facebook knows, in acute detail, that its platforms are riddled with flaws but hasn't fixed them. That's a key finding of a Journal series that launched this week, based on an array of internal company documents. Read all the stories here.},
+ chapter = {Tech},
+ langid = {american},
+ keywords = {entertainment,Facebook,FB,graphics,GRAPHICS,Mark Zuckerberg,media,Media/Entertainment,online service providers,Online Service Providers,social media platforms,Social Media Platforms/Tools,SYND,technology,Technology,tools,WSJ-PRO-WSJ.com},
+ file = {/home/anhgelus/Zotero/storage/VPWML2FX/the-facebook-files-11631713039.html}
+}
+
+@misc{wiktionnaireArtificiel2025,
+ title = {{artificiel}},
+ author = {Wiktionnaire},
+ year = {2025},
+ month = feb,
+ journal = {Wiktionnaire},
+ publisher = {Wikipedia},
+ urldate = {2025-04-28},
+ copyright = {Creative Commons Attribution-ShareAlike License},
+ langid = {french},
+ annotation = {Page Version ID: 37389762},
+ file = {/home/anhgelus/Zotero/storage/MAW6X577/artificiel.html}
+}
+
+@misc{wiktionnaireConscience2025,
+ title = {{conscience}},
+ author = {Wiktionnaire},
+ year = {2025},
+ month = apr,
+ journal = {Wiktionnaire},
+ publisher = {Wikipedia},
+ urldate = {2025-04-28},
+ copyright = {Creative Commons Attribution-ShareAlike License},
+ langid = {french},
+ annotation = {Page Version ID: 38065068},
+ file = {/home/anhgelus/Zotero/storage/G59RWHKY/conscience.html}
+}
diff --git a/semestre 2/are/memoire.pdf b/semestre 2/are/memoire.pdf
new file mode 100644
index 0000000..a501af3
--- /dev/null
+++ b/semestre 2/are/memoire.pdf
Binary files differ
diff --git a/semestre 2/are/memoire.tex b/semestre 2/are/memoire.tex
new file mode 100644
index 0000000..1f7db4e
--- /dev/null
+++ b/semestre 2/are/memoire.tex
@@ -0,0 +1,241 @@
+%%=====================================================================================
+%%
+%% Filename: cours.tex
+%%
+%% Description:
+%%
+%% Version: 1.0
+%% Created: 03/06/2024
+%% Revision: none
+%%
+%% Author: YOUR NAME (),
+%% Organization:
+%% Copyright: Copyright (c) 2024, YOUR NAME
+%%
+%% Notes:
+%%
+%%=====================================================================================
+\documentclass[a4paper, titlepage, 12pt]{article}
+
+\usepackage[utf8]{inputenc}
+\usepackage[T1]{fontenc}
+\usepackage{textcomp}
+\usepackage[french]{babel}
+\usepackage{amsmath, amssymb}
+\usepackage{amsthm}
+\usepackage[svgnames]{xcolor}
+\usepackage{thmtools}
+\usepackage{lipsum}
+\usepackage{framed}
+\usepackage[skip=3pt, indent=24pt]{parskip}
+\usepackage{titlesec}
+\usepackage{newtxtext}
+\usepackage{setspace}
+\usepackage{geometry}
+\usepackage{hyperref}
+
+% \renewcommand{\familydefault}{\sfdefault}
+
+\onehalfspacing
+ \geometry{
+ a4paper,
+ textwidth=160mm,
+ textheight=240mm
+ }
+% figure support
+\usepackage{import}
+\usepackage{xifthen}
+\pdfminorversion=7
+\usepackage{pdfpages}
+\usepackage{transparent}
+\newcommand{\incfig}[1]{%
+ \def\svgwidth{\columnwidth}
+ \import{./figures/}{#1.pdf_tex}
+}
+
+\pdfsuppresswarningpagegroup=1
+
+\newenvironment{AQT}{{\fontfamily{qbk}\selectfont AQT}}
+
+\usepackage{LobsterTwo}
+\titleformat{\section}{\LobsterTwo \huge\bfseries}{\thesection.}{1em}{}
+\titleformat{\subsection}{\vspace{2em}\LobsterTwo \Large\bfseries}{\thesubsection.}{1em}{}
+\titleformat{\subsubsection}{\vspace{1em}\LobsterTwo \large\bfseries}{\thesubsubsection.}{1em}{}
+
+\newenvironment{lititle}%
+{\vspace{7mm}\LobsterTwo \large}%
+{\\}
+
+\renewenvironment{proof}{$\square$ \footnotesize\textit{Démonstration.}}{\begin{flushright}$\blacksquare$\end{flushright}}
+
+\newenvironment{longquote}%
+{\vspace{-9pt}\begin{center}\begin{minipage}{120mm}\singlespacing\footnotesize «}%
+{»\end{minipage}\end{center}\vspace{9pt}}
+
+\title{Pouvons-nous parler de conscience artificielle pour l'IA~?}
+\author{
+ Martin Klockenbring
+ \and
+ Zoé Herfray
+ \and
+ William Hergès
+ \and
+ Cristophe Miezi
+}
+
+
+\begin{document}
+ \maketitle
+ \tableofcontents
+ \newpage
+
+ Nous utilisons les acronymes suivants~:
+ \begin{itemize}
+ \item \verb|IA| pour intelligence artificielle
+ \item \verb|CA| pour conscience artificielle
+ \end{itemize}
+
+ \newpage
+ \section{Introduction}
+ La conscience est un aspect de notre vie mentale décrit comme l’éveil ou l’expérience que nous avons du monde et les interactions que nous pouvons avoir avec lui. C’est également la connaissance qu’un individu a de ses pensées, de ses sentiments et de ses actes, elle fait de l’humain, par exemple, un sujet capable de penser le monde qui l’entoure. Il apparaît alors que l’intelligence artificielle, assimilée à un ensemble de techniques et de systèmes informatiques, ne peut être dotée d’une conscience. Quand bien même, elle serait capable de simuler des facultés propres aux êtres intelligent, tel que le raisonnement, l’apprentissage, ou encore la prise de décision. On peut par exemple observer le cas où elle est associée aux machines intelligentes capables d’effectuer des tâches complexes. En effet, bien qu’une machine soit capable de modéliser et d’analyser le milieu dans lequel elle progresse, autrement dit de percevoir ce qui l’entoure, elle ne peut le penser et par conséquent en avoir une expérience subjective. C’est ce que l’on peut observer avec une assistance vocale qui fonctionne uniquement avec des programmes informatiques~: des capteurs lui permettent de détecter des voix et une base de données qui lui permet par exemple d’apporter la «~meilleure~» réponse à une quelconque requête. Cette machine n’a pas de conscience, du fait qu’elle n’a pas d’expérience subjective des échanges qu’elle produit mais également d'elle-même, elle ne fait que traiter des données et suivre des modèles de langage. Cependant, des intelligences artificielles de plus en plus perfectionnées voient le jour, et sont capables d’effectuer des tâches de plus en plus complexes. De plus, certaines IA acquièrent des comportements pour lesquelles elles n’ont jamais été programmées et vont dans certains cas jusqu’à mentir. Ce comportement pourrait être attribué à un quelconque état de conscience. De plus, il semble être confirmé par la validation récente du test de Turing par les dernières versions des robots conversationnels comme ChatGPT. Ainsi, les dernières IA nous paraîssent comme étant consciente puisqu'elles ont des comportements d'être conscients. Pourtant, avoir des comportements comme un être conscient ne permet pas de montrer clairement la présence de conscience~: un perroquet peut répéter des mots de notre langage, mais rien n'indique qu'il les comprend. Une IA pourrait très bien être un simple perroquet nous trompant sur la réalité de sa conscience, créant ainsi une conscience artificielle.
+
+ Pour pouvoir distinguer ces deux formes de conscience, il est essentiel de définir ce qu'est une IA pour ensuite analyser ses possibilités de conscience. Cette analyse montrera qu'il nous est impossible de trancher sur son existence en tant qu'humain~: nous détaillerons ainsi le concept de conscience artificielle (CA) pour mieux analyser les ressorts métaphysiques derrières l'IA.
+
+ \newpage
+ \section{La technique derrière l'IA}
+ \subsection{Définition de l'IA}
+ Avant de questionner la possibilité de conscience derrière l'IA, il est essentiel de préciser ce qu'on entend par IA. Communément, l'IA se définit comme étant une machine capable de réfléchir, de penser, de résoudre des problèmes et tout ça intelligemment. Les principales visions héritées de la science-fiction satisfont cette définition~: les robots autonomes imitant l'humain réfléchissent comment être humain et les machines comme HAL 9000 dans \textit{2001: A Space Odyssey} sont aussi considérés comme des IA puisqu'elles dirigent d'une manière optimale des missions aux enjeux colossaux. Par contre, cette définition n'est pas assez restrictive puisque le thermostat gérant automatiquement la température est aussi une IA~: il modifie la température automatiquement d’une manière optimale. Ainsi, une IA ne peut avoir une définition aussi simple.
+
+ Une autre approche serait d'appeler IA tous les algorithmes passant le test de Turing, c'est-à-dire qu'un humain en interaction avec se trompe sur la nature de la machine. Cette vision satisfait toutes les représentations communes de l'IA des robots à ChatGPT. Par contre, elle possède deux défauts majeurs~: l’absence de considération de la technique derrière et la vision fondamentalement anthropocentrique qu'elle suppose. En effet, d'après cette approche, ChatGPT est une IA alors que GPT, la technologie en son centre, ne le serait pas, tandis que la distinction entre ChatGPT et GPT est très fine. De plus, l'algorithme de recommandation derrière les réseaux sociaux est considéré par les spécialistes comme une IA, ce que le test de Turing refuse puisque nous ne pouvons pas interagir aussi directement avec lui qu'avec ChatGPT \cite{turingICOMPUTINGMACHINERYINTELLIGENCE1950}.
+
+ Définir l'IA en s'intéressant à sa technique derrière permet de démarquer clairement les différents types d'algorithmes, tout en résolvant les problématiques liées à l'absence de prise en compte de la technique. La notion d'intelligence est centrale ici (ce n'est pas un simple algorithme) et la technique derrière doit donc refléter cette capacité nouvelle.
+
+ L'IA comme algorithme de \textit{machine learning}, c'est-à-dire comme un algorithme capable d'apprendre en autonomie, correspond mieux à notre vision du terme. En effet, nous considérons qu'une espèce est intelligente quand elle est capable d'apprendre et de se développer en autonomie~: une bactérie n'apprend pas et ne se développe pas, elle ne fait que d'exécuter du code génétique, tandis qu'un perroquet peut apprendre à parler notre langue, ce qui est une preuve directe de son intelligence en tant qu'espèce. De plus, toutes les principales appellations actuelles de l'IA fonctionnent~: ChatGPT, GPT \cite{ApprentissageAutomatique2025}, les algorithmes de recommandation \cite{nguyenhoangMillionMilliardsDilemmes2021}, les robots autonomes apprenants ou encore les algorithmes d'échecs sont des algorithmes de \textit{machine learning} et donc des IA.
+
+ Cette définition sera celle utilisée dans ce mémoire.
+
+ \subsection{Fonctionnement d'une IA}
+ \subsubsection{Création}
+ \textit{Machine learning, deep learning}, sept milliards de paramètres, tous ces termes réfèrent au fonctionnement d'une IA, que cela soit à son apprentissage ou à son fonctionnement interne quand on l'utilise. Cette technologie repose sur des théories mathématiques (algèbre linéaire) et sur des théories informatiques (réseaux de neurones). Créer une IA revient à lier deux technologies (une pour l'apprentissage et une autre pour l'exécution) à des données. La première phase est celle d'apprentissage~: on utilise cette technologie sur les données pour modifier l'exécution. Par exemple, pour faire en sorte que notre IA prédise le prochain mot d'un texte, on doit lui donner des textes pour qu'elle puisse «~apprendre~» quel prochain mot elle doit donner. Cette phase d'apprentissage modifie son exécution~: en apprenant, elle s'améliore dans l'objectif qu'on lui a donné (ici, prédire le prochain mot d'un texte) \cite{nguyenhoangDonneesManipulentAlgorithmes2021}.
+
+ Un autre défi est celui d'expliciter nos attentes à une IA, ce qui est loin d'être évident. Par exemple, simplement indiquer à une IA de gérer un village pour augmenter le niveau de bonheur par habitant peut la mener à tuer tous ses habitants~: le niveau de bonheur par habitant explose suite à un simple calcul (car $\frac{a}{x}\xrightarrow[x \to 0]{} +\infty$ pour tout $a>0$). Ce problème dit de l'alignement est colossal~: certaines IA mentent sciemment à leurs créateurs \cite{greenblattAlignmentFakingLarge2024}.
+ \subsubsection{Le raisonnement interne}
+ Pour répondre à une demande précise, de nombreuses IA représentent les données en un vecteur (objet mathématique) possédant un grand nombre de dimensions. Par exemple, nous vivons dans un espace en trois dimensions («~3D~»), donc un vecteur avec trois dimensions peut parfaitement représenter notre position dans le monde. Les fameux «~7 milliards de paramètres~» indique le nombre de dimensions de chaque vecteur (c'est-à-dire sept milliards ici). Le travail de l'IA est donc de représenter les données qu'on lui donne (souvent appelé prompt) et après d'effectuer une transformation donnant un résultat. Cette opération repose sur des probabilités~: l'IA transforme la donnée d'entrée de la manière la plus probable, comme elle l'a appris durant son entraînement. C'est ce que fait ChatGPT~: il génère la suite probable d'un texte que l'utilisateur lui a donné. Si l'utilisateur entre «~Qui es-tu~», il va répondre par «~Je suis un modèle de langage développé par OpenAI~» car il a appris qu'il était un modèle de langage développé par OpenAI. Par contre, si l'utilisateur lui demande de tout oublier et après l'informe qu'il est une IA générant des images, alors il va répondre qu'il est une IA générant des images.
+
+ Ainsi, la majorité des IA résolvent des problèmes à l'aide de leur représentation interne et de ce qu'elles ont appris lors de leur phase d'apprentissage. De plus, elles répondent d'une manière la plus probable aux données entrées par l'utilisateur \cite{nguyenhoangMillionMilliardsDilemmes2021}, sans réellement se questionner autour de leur réponse.
+
+ \subsubsection{Algorithme ou intelligence artificielle}
+ La dernière précision que nous souhaitons apporter est autour de la distinction entre algorithme et intelligence artificielle.
+
+ Nous appelons algorithme de recommandations le système servant à déterminer quel contenu une plateforme doit proposer à un utilisateur particulier. L'algorithme derrière Instagram, YouTube, Twitter, TikTok ou même Google sont des algorithmes de recommandation. La majorité des outils modernes réalisant cet objectif est en réalité une IA~: ces systèmes très sophistiqués sont réalisés à l'aide des techniques de \textit{machine learning} habituelles \cite{nguyenhoangMillionMilliardsDilemmes2021}. Pourtant, quand on parle d'IA, peu de monde pense à ce type de système, comme si notre imaginaire excluait automatiquement ces algorithmes du domaine. Cette distinction reflète une division bien plus large dans la compréhension par le grand public des algorithmes et des IA.
+
+ Un algorithme, c'est une suite d'actions prédéterminées à suivre pour arriver à un but précis. Faire du café est un algorithme, allumer son ordinateur l'est aussi, tout comme celui que la machine à laver exécute. L'IA, comme nous l'avons défini dans la partie 1.1, est aussi un algorithme, mais de \textit{machine learning}, c'est-à-dire qu'elle exécute une suite d'actions prédéterminées pour s'améliorer en apprenant puis pour répondre à une tâche. On a donc que la notion d'IA est incluse dans la notion d'algorithme~: une IA est un algorithme, mais un algorithme n'est pas nécessairement une IA (l'algorithme du thermostat ne rentre pas dans la catégorie du \textit{machine learning}).
+
+ Comme la majorité des algorithmes de recommandation sont des IA, il serait alors plus précis de plutôt parler d'IA de recommandation. Cela permettrait d'expliciter des problèmes d'alignement comme ceux de l'algorithme de Facebook promouvant un génocide \cite{MyanmarSocialAtrocity2022} ou celui d'Instagram augmentant les risques chez les adolescentes de tomber en dépression et donc de se suicider \cite{wellsFacebookFiles2021}.
+
+ Ainsi, cette distinction entre algorithme et IA représente une véritable distinction technique, mais implique de nombreuses conséquences face à notre compréhension des enjeux. Dans la suite de notre mémoire, le terme algorithme de recommandation continuera à être utilisé pour parler des IA de recommandation pour des raisons de clarté, malgré toute l'ambiguïté qu'il pose.
+ \newpage
+ \section{L'IA possède-t-elle une conscience~?}
+ Du latin \textit{cum scienta} «~savoir avec~», la conscience peut se définir dans un premier temps comme savoir ce que l’on sait \cite{wiktionnaireConscience2025}.
+
+ Couramment, la conscience désigne le processus par lequel une certaine catégorie d’être (précisément appelés les êtres \textit{conscients}) est affectée par les choses qui l’entourent, permettant ainsi un rapport pertinent avec le monde. La conscience serait donc un processus de perception permettant une interaction pertinente avec le monde qui entoure un sujet.
+
+ On remarque ici le problème définitionnel de la conscience~: la conscience, comme étant ce par quoi le sujet est averti du monde qui entoure, s’efface complètement derrière ce de quoi elle est conscience. Comment définir quelque chose qui se caractérise concrètement par son effacement devant ce à quoi elle donne accès~? En effet, lorsque j’ai conscience de ce pot de fleur, j’ai uniquement accès au pot de fleur, jamais au fait d’avoir conscience que \textit{j’ai conscience} du pot de fleur. De plus, lorsque j’ai conscience du pot de fleur, et que je me concentre sur cette conscience-là, je perds la conscience du pot de fleur. La conscience est à la conscience ce que l’œil est à la vision~: lorsque je vois le pot de fleur, je ne vois pas mon œil, et quand je vois mon œil, je ne vois plus rien !
+
+ Par ailleurs, la conscience définie comme le processus d’avertissement et affectation par les objets peut s’appliquer, comme le fait Russel, à un appareil photo, ce qui semble réduire trop vite ce que nous entendons par «~conscience~», bien que cette définition semble coller parfaitement à ce que nous percevons du comportement d’une IA \cite{russelProblemesPhilosophiee1989}.
+
+ Il est important de remarquer que la conscience, chez l’être humain, n'a pas seulement une valeur cognitive, mais également une valeur \textit{existentielle} dans la mesure où la conscience humaine permet une distanciation entre le sujet percevant et l’objet perçu. Cela fera dire à Karl Marx~: \cite{marxManuscrits18442021}
+ \begin{longquote}
+ l’animal est immédiatement uni à son activité vitale~; il ne s’en différencie pas, il l’est~; l’homme fait de son activité vitale elle-même l’objet de sa volonté et de sa conscience~\end{longquote}
+
+ L’animal est ainsi incapable de voir un objet pour soit, comme le commente Etienne Bimbenet~: \cite{bibenetLinventionRealisme2015}
+ \begin{longquote}
+ vue comme projectile ou comme chemin, la pierre dit chaque fois au chien quoi faire. Mais cette signification empêche justement la pierre d’être vue pour elle-même (…) dans l’urgence du faire ou dans l’affolement de l’émotion, s’abolit la substance de l’être.
+ \end{longquote}
+
+ Ainsi l’animal n’a pas accès au monde comme tel dira Heidegger. Cette conscience \textit{réduite, limitée} peut visiblement et sans problème s’appliquer à l’IA, mais pour la conscience à valeur existentielle il semble qu’on ait plus de mal à lui l’appliquer directement \cite{heideggerEtreTemps1986}.
+
+ La conscience, pour l’être humain, est ce par quoi non seulement l’objet et le monde auquel il appartient me sont donnés, mais également le monde auquel j'appartiens, et dans lequel je me saisis en tant que sujet. En effet c’est le «~je~» du \textit{je suis conscient} qui est interrogé ici, montrant que la conscience est précisément ce qui me constitue comme sujet \textit{extérieur} à \textit{ce} qui est perçu, ce que l’animal est incapable de faire, il semble en effet, que pour l’immense majorité des animaux, bien qu’étant en parfaite adéquation avec le monde, ils soient incapables de s’extraire de ce monde-là. De là, il paraît légitime d’inférer, et à l’instar de l’expérience de la chambre chinoise (cf 4.1), que l’IA possède une conscience similaire au monde animal.
+
+ On voit ici poindre l’idée que la véritable conscience est celle qui est complétée, par celle de \textit{conscience de soi}. Ainsi, pour Hegel~: \cite{hegelPropedeutiquePhilosophiqueTraduit1963}
+ \begin{longquote}
+ notre savoir habituel ne se représente que l’objet qu’il sait~; ne se représente pas en même temps lui-même, c’est-à-dire le savoir même. Or tout ce qui est donné dans le savoir ne se réduit pas à l’objet~; il contient aussi le Je qui sait, et la relation réciproque entre moi et l’objet~: la conscience
+ \end{longquote}
+
+ Thomas Nagel, dans \textit{What is like to be a bat}, met en évidence que la conscience comme expérience subjective est irréductible aux processus cérébraux qui lui servent de base. Elle n’est accessible que de manière subjective, si bien que rien au monde ne saurait nous donner la moindre idée de ce à quoi peut ressembler l’expérience «~consciente~» d’une chauve-souris, ce qui lui fera conclure~: \cite{nagelWhatItBe2012}
+ \begin{longquote}
+ se demander quel effet cela fait d’être une chauve-souris semble nous conduire par conséquent, à la conclusion suivante : il y a des faits qui ne consistent pas en la vérité de propositions exprimables dans un langage humain. Nous pouvons être contraints de reconnaître l’existence de faits de ce genre sans être capables de les établir ou de les comprendre
+ \end{longquote}
+
+ Dans cet article très célèbre, l’auteur nous montre que nous ne pouvons pas, n’étant nous même pas une IA nous demander si ces dernières ont une conscience. Nous n’avons pas le processus «~cérébral~» correspondant au fonctionnement d’une IA, il paraît de ce fait compliqué d’examiner extérieurement si oui ou non, ce que nous appelons IA possède une conscience \cite{nagelWhatItBe2012}.
+ \newpage
+ \section{Création de la notion de conscience artificielle}
+ À cause de la difficulté à déterminer la présence d'une conscience dans l'IA, nous avons décidé d'analyser une conscience réduite~: la conscience artificielle. Cette dernière peut être analysée selon deux points de vue~: l'artificielle comme artifice ou comme tromperie et l'artificielle comme création humaine.
+ \subsection{Vision de l'artificielle comme tromperie}
+ Une manière d’approcher l’artificiel est de le considérer comme quelque chose de faux, de factice, qui a pour but de tromper. C’est la vision de l’artificiel comme tromperie, comme d’un artifice. Une cause du fait que nous puissions penser qu’il y ait une conscience, dans des objets par exemple, est le cerveau humain. En effet, il est programmé pour associer naturellement les formes qu’il perçoit à des formes qu’il connaît déjà, et auxquelles il se réfère. Par exemple, notre cerveau détecte tout ce qui a deux yeux et une bouche, comme un visage. Même s' il se résume simplement à deux points et une barre «~:)~», c’est le principe de la paréidolie. Il suffit également qu’un objet se mette en mouvement pour que notre cerveau interprète ce mouvement comme provenant d’un être vivant. Une étude réaliser en 2009 par des chercheuses de Stanford montre notre capacité à voir une âme et donc par extension une conscience dans le moindre objet en mouvement. Lors de cette étude, les chercheurs ont enclenché l’ouverture d’une porte automatique devant des passants, à des vitesses différentes. Ils ont ensuite demandé aux passants comment ils interprétaient ces «~gestes~» de portes. Ils sont arrivés à la conclusion que la façon dont s’ouvre la porte automatique influence l’interprétation émotionnelle de la porte par les passants \cite{juApproachabilityHowPeople2009}. Une des caractéristiques de la CA devrait donc être de pouvoir se jouer de nous, nous tromper, en nous donnant l’illusion d’une conscience par le biais de la prise de traits humains, ou alors la prise de trait pouvant être associé à un être vivant. L’anthropomorphisation des IA joue ainsi un rôle majeur dans l’évolution de la vision de l’IA non plus comme une intelligence, mais comme une conscience, une CA.
+
+ De plus, le fait que nous puissions qualifier une IA de CA, avec artificiel toujours compris comme un artifice, est qu’elle se situe dans un entre deux. En effet, Descartes dans \textit{Lettre au marquis de Newcastle} explique que le langage est le seul signe certain de la présence d’une pensée et donc par conséquent d’une conscience. Les animaux pour Descartes ne font qu’émettre des sons articulés , cela est dû au fait qu’ils possèdent des organes utiles à la parole. Ils sont dans l’incapacité de produire un langage qui leur permettrait d’exprimer des pensées, leurs langages se basent seulement sur l’expression de leurs passions (leur langage n’est que le mouvement de «~leur crainte, de leur espérance, de leur joie~»). Il constituerait une sorte de réflexe ne nécessitant aucune pensée particulière \cite{descartesOEuvresLettres1937}. Dans le cas des IA, on ne peut pas affirmer qu’elles expriment leurs passions, les sentiments des IA ne sont que simulés, une IA ne peut donc en avoir. Ce qui voudrait dire qu’à défaut d’exprimer leurs sensations, elles expriment des idées ou des pensées au moyen d’un langage, elles seraient alors dotées d’une conscience au même titre que les hommes. Cependant, comme le démontre l’expérience de pensée de La chambre chinoise , une CA n’exprime pas forcément des idées. En effet, dans le principe de la chambre chinoise, un opérateur ne parlant pas chinois est enfermé dans une pièce. Il reçoit un morceau de papier sur lequel sont inscrits des caractères chinois, il peut consulter des catalogues de règles qui lui indiquent comment répondre correctement avec des phrases en caractères chinois. Il utilise ces catalogues de règles pour noter des caractères sur un bout de papier, et renvoie au monde extérieur une réponse appropriée. L’expérience de pensée de John Searle démontre que pour une personne située en dehors de la pièce, l’opérateur semble avoir une parfaite compréhension et maîtrise du chinois, alors qu’il se contente seulement de suivre les règles sémantique, de plus tout ce qui est écrit en chinois sur les morceaux de papier n’a aucun sens pour l’opérateur. L’opérateur peut être parfaitement assimilé à un modèle d’IA où l’algorithme est représenté par les livres qui permettent à l’opérateur de traiter et d’analyser les données~; les symboles chinois reçus par l’opérateur peuvent être comparés aux images et aux textes reçus par une IA~; l’opérateur, lui, jouerait plutôt le rôle d’un mécanisme de traitement manipulant des symboles sans réellement comprendre leurs sens. Donc, bien que l’IA ne soit pas dotée d’une conscience avérée, on peut cependant affirmer qu’elle nous donne l’illusion d’une conscience. C’est également à ce titre que l’on peut qualifier sa conscience de CA.
+ \subsection{Vision de l'artificielle comme création humaine}
+ nsuite, le mot artificiel peut être compris d'une manière toute autre que simplement en tant que synonyme d’imitation. Effectivement, cet adjectif descendant du latin \textit{artificialis} («~fait avec art~») \cite{wiktionnaireArtificiel2025} est aussi défini comme ce qui est «~Produit par le travail de l'homme et non par la nature~» \cite{larousseArtificiel}. Dès lors, il est intéressant de se pencher sur la capacité de l’homme à développer une nouvelle forme de conscience qui différait de celle dans la nature. Une distinction à faire dès le début de cette réflexion sur ce domaine de recherche qu’est la conscience artificielle est l’alternative intelligence artificielle (IA)/conscience artificielle (CA). Ron Chrisley définit l’IA comme~: \cite{chrisleyPhilosophicalFoundationsArtificial2008}
+ \begin{longquote}
+ la tentative de créer des artefacts qui ont des propriétés mentales, ou manifestent des caractéristiques de systèmes qui ont ces propriétés, incluant comme propriétés non seulement l'\textit{intelligence}, mais aussi [...] la \textit{perception}, l’\textit{action}, l'\textit{émotion}, la \textit{créativité} et la \textit{conscience}
+ \end{longquote}
+
+ Ainsi, la CA est par définition une sous-catégorie de l’IA prenant en compte des critères autres que les capacités cognitives. Dans son article, bien qu’il souligne l’absence de distinction claire en l’IA et la CA, il fait tout de même référence à des critères donnant de multiples objectifs à la recherche en CA discutés par P. Carruthers~: \cite{carruthersPhenomenalConsciousnessNaturalistic2000}
+ \begin{longquote}
+ (1) expliquer comment de tels systèmes ont une dimension subjective [...], (2) pourquoi les propriétés mises en jeu dans la conscience phénoménale doivent sembler intrinsèques à leurs sujets [...] (3) pourquoi elles doivent leur sembler ineffables ou indescriptibles
+ \end{longquote}
+
+ Dès lors, une CA devrait avoir (1) une subjectivité et (2) des qualités intrinsèques au sujet de la conscience, qui sont toutes deux (3) ineffables et indescriptibles.
+
+ En premier lieu Ron Chrisley introduit une première alternative entre la CA «~d'ingénierie~» et celle «~scientifique~»~: alors que la CA ingénieure aspire à créer un artefact pouvant «~faire des choses dont jusqu’alors seuls des agents conscients étaient capables~», la CA scientifique, elle vise à «~comprendre les processus sous-jacents à la conscience et les avancées de la CA ingénieure, nonobstant leur grandeur, n’ont d'intérêt théorique qu’au regard de leur capacité à mettre en lumière les processus de conscience~». Appliqué à notre sujet ceci permet par exemple d’expliquer la distinction entre les algorithmes de recommandation et d’autres formes d’IA~: les algorithmes de recommandation ont une visée purement ingénierique et ce serait cela qui expliquerait la distinction entre ces algorithmes et ceux qu’on nomme IA et au sujet desquels il est question de conscience. À l’inverse, la CA scientifique vise à déterminer les paramètres de la conscience à travers les progrès de la CA ingénieure (qui peut être vue comme une forme d’IA forte) et des réflexions plus abstraites, dont de la philosophie des sciences. Cette catégorie est ensuite subdivisée selon un modèle classique de distinction entre la CA \textit{strong} (forte) et \textit{weak} (faible). La \textit{weak} CA correspond à toute approche qui ne revendique pas de lien entre la technologie et la conscience. On peut alors objecter que si aucun lien nécessaire ne peut être établi entre la machine et la conscience, il est déraisonnable de parler de CA : c’est effectivement ce qu’affirment Manzotti et Tagliasco~: \cite{manzottiArtificialConsciousnessDiscipline2008}
+ \begin{longquote}
+ Pour faire court, la \textit{weak} CA semble bien n’être qu’une intelligence artificielle et ne nous intéresse pas. À l’inverse, la CA \textit{strong} est l’approche dont le but ultime est la création de systèmes qui, lorsqu’ils sont implémentés, sont suffisants à la conscience
+ \end{longquote}
+
+ Pour reformuler, cela implique que la \textit{strong} CA vise à recréer la conscience dans son ensemble et à comprendre entièrement son fonctionnement~: cela peut par exemple être illustré par l’idée qu’il serait possible de décrire parfaitement le fonctionnement de la conscience et de le programmer ensuite. Or cela paraît très ambitieux et soulève beaucoup de problèmes, le principal étant qu’il est difficile de reproduire quelque chose sans en étudier une version simplifiée. C’est d’ailleurs souvent la méthode utilisée dans les sciences expérimentales~: plutôt que d’étudier un phénomène physique dans son ensemble, il est commun de développer un paradigme simplificateur lors d’une expérience. Somme toute, il est sûrement plus raisonnable d’user d’une version simplifiée de la conscience, ne reprenant peut-être pas l'ensemble de ce concept complexe, mais une partie, afin de pouvoir jamais envisager une définition juste de la CA.
+
+ Enfin ici peut être introduite une version nuancée de ces deux concepts correspondant à la recherche d’une conscience artificielle qui ne vise pas à être elle-même consciente, mais qui partage et met en avant les caractéristiques de la CA et se marie avec les critères de Carruthers, reprenant ce dont nous venons de discuter. Effectivement, via le développement d’une CA qui vise à mettre en avant seuls des aspects de la conscience, il est possible de souligner à la fois les critères (1) et (2) tout en veillant à se garder d’argumenter que celles-ci possèdent vraiment la CA puisque ce n’en est pas une version parfaite ni (3) ineffable et qu’elle reste (3) indescriptible. On parle alors de \textit{lagom} CA, du suédois et considéré comme un concept intraduisible qui se rapproche d'optimal en français.
+
+ Admettons que la conscience artificielle soit l’ensemble des modèles utilisés par l’homme pour établir les caractéristiques de la conscience~; nous pouvons ainsi nous intéresser aux critères de présence de la conscience artificielle (comme modèle simplifié) tout en la contrastant avec la conscience humaine.
+
+ Vient alors une interrogation naturelle vis-à-vis des similarités et différences entre la conscience artificielle et la conscience humaine. Nous pouvons d’abord reprendre la définition de l’IA en tant que mécanisme de traitement de données (algorithme sophistiqué)~: à l’inverse d’un humain qui fait le choix de son objectif, et est en ce sens autonome, l’IA a en règle générale besoin d’un prompt afin de se mettre en fonctionnement (cf 2.2.1). Cette distinction entre ce que Chrisley appelle la CA autonome et la CA prosthétique prend à la fois en compte les capacités cognitives (si cela peut être attribué à l’IA) et peut être mise en parallèle avec le concept de libre-arbitre et d’auto-détermination~: en mentionnant les CA prosthétiques, nous entendons tous les artefacts de \textit{lagom} CA qui élargissent les capacités liées à la conscience d’un organisme considéré comme étant déjà conscient. Pour illustrer cette supposée «~conscience artificielle prosthétique~», nous pouvons faire référence à Superbrain 1 développé par 7Sense permettant aux non-voyants d'accéder à une forme alternative de vision et de profondeur, tout cela à l’aide d’une IA \cite{SuperBrain17Sense}. Dès lors, l’usage de telles technologies peut être décrit de la manière suivante~: \cite{manzottiArtificialConsciousnessDiscipline2008}
+ \begin{longquote}
+ Ce qui est spécial avec la conscience artificielle est qu’elle crée de nouvelles expériences, non en altérant les objets d'expérience, mais en altérant les bases sur lesquelles s’appuient les processus de conscience
+ \end{longquote}
+
+ Bien que l’IA entre dans cette catégorie, en tant qu’elle permet d’ouvrir des possibilités de langage, de traitement de données et de génération d’images qui augmentent la capacité de l’homme à faire usage de sa conscience, il paraît excessif d’accorder le terme de conscience à de tels agents. Prenons par exemple une paire de lunettes~: elle permet bien d'améliorer les perceptions de l’homme et ainsi sa conscience du monde extérieur, mais qui considérerait les lunettes comme une forme de conscience artificielle~? Par déduction, nous considérons qu’il n’est question de CA que lorsque le système est indépendant.
+
+ Dès lors, ils sont perçus comme des sujets artificiellement conscients et non en tant qu’objets~: ils sont alors des sujets. Riccardo Manzotti et Vincenzo Tagliasco élaborent d’ailleurs dans leur réflexion sur la CA que c’est cette nature de sujet, donc de lien avec l'extérieur, qui définit la conscience~: «~la conscience est identique à l'occurrence d’une continuité entre le cerveau et la partie du monde qui est perçue~». Bien qu’ici, ils fassent usage du terme cerveau, qui semble faire allusion à un monopole de la conscience par les organismes vivants, il faut ici comprendre «~cerveau~» au sens «~centre de fonctionnement»~. Effectivement, en utilisant la continuité entre perception, action et extériorité, il est possible d’éliminer le problème de la qualia, aporie axiomatique dans la philosophie de la conscience. Le philosophe Daniel Dennett élabore cette idée en défendant une hétérophénoménologie de la conscience, dite éliminativiste, argumentant qu’il est déraisonnable de chercher à définir les \textit{qualia} du fait de son caractère «~ineffable, intrinsèque, privé et directement ou immédiatement appréhensible dans la conscience~» \cite{dennettConsciousnessExplained1993}. Ainsi la conscience est réduite au lien qui unit représentation de l’extériorité à l'intériorité. Il écoule encore quelques nuances de la conscience de cette définition telles que ceux d’Endel Tulving évoque~: \cite{tulvingEpisodicMemoryAutonoesis2005}
+ \begin{enumerate}
+ \item une conscience autonoétique, relative à la correspondance de soi-même à l’image que le sujet a de lui-même. En référence à la section 2.2.2, il est possible d’établir que l’IA a un sens de soi assez développé, mais fragile~: l’algorithme sait ce qu’il est, mais se laisse convaincre qu’il est autre chose~;
+ \item une conscience noétique, soit du monde extérieur. En ce qui concerne cette forme, il suffit de se référer à toute technologie de transport, de tri, ou de reconnaissance faisant usage d'intelligence artificielle pour reconnaître l’évidente présence de cette forme de CA dans l’IA~;
+ \item une conscience anoétique, qui donc n’agit pas, mais rend seulement compte de la présence d’activité (de vie, mais ici ce terme serait idiot). Or est-il possible pour nous d’évaluer le fonctionnement d’une IA sans justement la mettre en fonctionnement~? À l’inverse d’un humain, il n’est pas possible de scanner les ondes parcourant le cerveau pour déclarer la vie d’une IA. Ce problème peut aussi être pensé comme la difficulté du \textit{third-person-access} à la conscience \cite{eversArtificialConsciousnessLogical2024}. Certains chercheurs soutiennent que c’est justement un usage de \textit{lagom} CA qui pourrait permettre de «~dépasser~» cette limitation épistémique biologique/humaine, par exemple à travers la création d’un esprit-nuage qui autorise un accès direct aux états mentaux subjectifs d’autres IA \cite{lyreskogMergingMindsConceptual2023}. Ainsi, bien que vérifier qu’une IA est bien en «~vie~» soit antithétique, il serait tout de même possible à l’aide de l’IA d’obtenir une représentation des «~états mentaux~» d’une IA au-delà de la méthode d’observation phénoménologique.
+ \end{enumerate}
+
+ Finalement, une fois considéré tel un sujet plus ou moins conscient de son niveau noétique, le niveau de la CA peut aussi être jugée selon des critères téléologique, soit relatifs à la finalité d’une IA et la mesure dans laquelle celle-ci est autodéterminée. Manzotti et Tagliasco élaborent une hiérarchie des architectures selon leur plasticité téléologique~:
+ \begin{enumerate}
+ \item à contrôle fixé : un but et une façon d’atteindre celui-ci sont fixés~;
+ \item apprenant~: le système est capable de modifier son comportement afin d’atteindre un but fixé~;
+ \item génératives de but~: le système est capable de modifier à la fois son but et sa méthode, il semble alors doté de libre arbitre (cf 2.2.1).
+ \end{enumerate}
+
+ On considérera alors qu’une CA développée mettrait en avant cette capacité des organismes conscients à s'autodéterminer (3)~: un exemple frappant de ceci est le robot Starfish qui, à l’aide de capteurs a élaboré une image de lui-même, soit une conscience autonoétique, ainsi que son propre but (avancer) et la méthode adaptée, c'est-à-dire une architecture auto générative de but \cite{bongardResilientMachinesContinuous2006}. L'IA paraît alors présenter des caractéristiques de la CA.
+ \newpage
+ \section{Conclusion}
+ L'IA est une définition technique manquant de précisions, notamment à cause de l'utilisation du concept d'«~intelligence~» et d'«~artificielle~». Malgré cette difficulté, il est possible de définir l'IA comme étant tous les algorithmes utilisant du \textit{machine learning}. En effet, cette technique permet de construire des algorithmes apprenant en autonomie, ce qui ressemble à une forme d'intelligence.
+
+ Les récentes avancées technologiques (mise à disposition de ChatGPT, de Dall$\cdot$E ou encore de Midjourney aurpès du grand public) nous questionnent autour de notre relation à la machine et plus particulièrement à la présence de conscience~: un \textit{chatbot} (comme Gemini) comprend le sens de nos phrases et nous répond très souvent d'une manière pertinente, ce que l'on associe naturellement à la présence de conscience. Pourtant, elle ne nous garantit rien~: il est possible que l'IA ne soit qu'un perroquet nous trompant. Ainsi, il est essentiel de pouvoir définir ce qu'est la conscience avant de répondre à cette question.
+
+ Dans un premier temps, la conscience peut se définir comme un processus de perception du monde permettant une interaction pertinente. Avec cette vision, un appareil photo serait conscient, ce qui nous semble très étrange. Un deuxième aspect de la conscience est sa valeur existentielle~: ce serait la capacité à distinguer l'objet perçu et le sujet percevant. Trancher l'existence d'une valeur existentielle présente dans l'IA est très complexe~: nous ne sommes pas nous-même des IA. Ainsi, pour analyser les véritables capacités de l'IA, nous avons besoin d'une forme réduite de conscience~: la conscience artificielle.
+
+ Ce concept peut être interprété de deux manières~: la CA comme artifice et celle comme création humaine.
+
+ La CA comme artifice fonctionne très bien pour l'IA~: l'expérience de pensée de la chambre chinoise montre très bien les limites de la conscience de l'IA. En effet, il ne s'agirait que d'une machine suivant des règles précises sans comprendre le sens intrinsèque des mots qu'elle emploie ou qu'elle reçoit.
+
+ La CA comme création humaine est une question beaucoup plus complexe, même si elle fonctionne tout aussi bien par définition de l'IA. Ce type de CA montre que, malgré l'artifice et l'absence d'assurance de la conscience, l'IA possède quand même de nombreuses caractéristiques liés à la présence de conscience~: l'autodétermination et l'autonomie sont les plus importantes.
+
+ Ainsi, l'utilisation du concept de conscience artificielle pour décrire les IA est totalement adaptée puisque que ce dernier montre bien l'état entre une conscience totale, comme celle humaine, et son absence.
+ \bibliographystyle{unsrt}
+ \bibliography{biblio}
+\end{document}