-
Notifications
You must be signed in to change notification settings - Fork 1
/
kapitel1.tex
50 lines (33 loc) · 9.86 KB
/
kapitel1.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
% !TeX root = document.tex
\chapter{Allgemeine künstliche Intelligenz}
\section{Definition von Intelligenz} \label{Intelligenzbegriff}
Seit Jahrhunderten versuchen Wissenschaftler und Laien gleichermaßen eine Definition für den Intelligenzbegriff zu finden. Da bis heute keine Defintion ihre Vollständigkeit oder Richtigkeit beweisen konnte, wird in dieser Arbeit der Einfachheit halber versucht, den Begriff durch Beobachtungen zu erklären, wie \citeauthor{EliezerPodcast} in dem Podcast \enquote{AI: Racing Toward the Brink} vorschlägt. \vgl[07:30-09:45]{EliezerPodcast}
\begin{enumerate}
\item Menschen waren auf dem Mond.
\item Mäuse waren nicht auf dem Mond.
\end{enumerate}
Yudkowsky wählt dieses Beispiel, um zwei Thesen zu belegen:
Menschen sind \emph{intelligenter} als Mäuse, weil sie \emph{domänenübergreifend} arbeiten können. Damit sei das \emph{domänenübergreifende} Erlernen neuer Fähigkeiten ein zentraler Teil des Intelligenzbegriffs.
Die natürliche Selektion ist neben der menschlichen Lernfähigkeit eine der wenigen Vorgänge, die zu einer \emph{domänenübergreifenden} Leistungsoptimierung führt, das oben genannte Beispiel belegt jedoch, dass die Menschheit auch Orte erreichen kann, wofür die natürliche Selektion sie nicht vorbereitet hat. Dies und die Tatsache, dass die Evolution Millionen Jahre benötigte, um aus dem Homo Sapien den Homo Erectus zu formen \vgl[508]{grzimek_grzimeks_1979}, während der Mensch mit seinen Entdeckungen und Erfindungen in wenigen Jahrhunderten zur dominantesten Spezies der Erde geworden ist, zeigt, dass der Mensch der schnellere und effizientere Optimierer ist. \emph{Effizienz} ist also ein weiterer Teilaspekt der Intelligenz.\vgl[9]{yudkowsky_intelligence_2013}
\section{Künstliche Intelligenz}
\zit[15]{kaplan_siri_2019}{Artificial intelligence (AI)---defined as a system’s ability to correctly interpret external data, to learn from such data, and to use those learnings to achieve specific goals and tasks through flexible adaptation}
Laut angeführter Definiton muss eine künstliche Intelligenz nicht nur Daten richtig interpretieren, sondern auch die dadurch gewonnenen Erkenntnisse mittels \emph{dynamischer Anpassung} zur Erreichung bestimmter Ziele benützen können.
Diese Definition enthält im Gegensatz zum oben beschriebenen Ansatz zur Intelligenzerklärung die Idee des \emph{domänenübergreifenden} Lernens nicht, was laut Experten jedoch nicht an einer unvollständigen Definition liegt, sondern vielmehr daran, dass wir den Begriff der künstlichen Intelligenz (KI) in einer Art gebrauchen, für die er nicht vorgesehen war. Um Missverständnisse zu vermeiden, wird für KI wie sie heutzutage bereits in Benutzung ist der Begriff schwache KI (engl. \emph{weak AI} oder \emph{narrow AI}) verwendet. \vgl[18--19]{bostrom_superintelligence:_2014} Dieser beschreibt eine \emph{domänenspezifische} KI.
\section{Allgemeine künstliche Intelligenz}
Als allgemeine künstliche Intelligenz (AKI; auch \emph{starke KI} genannt; engl. \emph{strong AI} oder \emph{general AI}) bezeichnet man ein technisch fortgeschrittenes System, dessen Lernkapazität nicht auf einzelne Domänen begrenzt ist, sondern als \emph{allgemein} bezeichnet werden kann. \vgl[1]{goertzel_advances_2007}
\section{Werte einer allgemeinen künstlichen Intelligenz} \label{Werte}
\zit[01:51--01:57]{paul_current_2019}{The goal is to build AI systems that are trying to do what you want them to do}
Der \emph{Instrumental Convergence Thesis} \vgl[9-10]{omohundro_basic_2008} nach gibt es bestimmte Ressourcen, die für eine AKI beim Erreichen der ihnen vorgegebenen Ziele in den meisten Fällen behilflich sind. Dazu gehören unter anderem Materie oder Energie, eine AKI wird jedoch auch Quellcodeveränderungen, die zu einem potenziellen Erschweren ihrer Zielerfüllung führen könnten, zu stoppen versuchen. Sie kann also Menschen schaden, ohne dass sie Werte besitzt, die dies explizit fordern. Für ein rein rational denkendes System sind Menschen nichts als eine Ansammlung von Atomen, die auch für das Erreichen seiner Ziele eingesetzt werden können.\vgl[14]{yudkowsky_intelligence_2013}
Ein fortgeschrittenes System wie eine AKI muss ihre Ziele daher auf der Basis von Werten verfolgen, von denen die Menschheit als Gesamtes profitiert, um ungewollten Nebenwirkungen wie der in der Einleitung genannten Auslöschung der Menschheit durch unpräzises Definieren ihrer Ziele mit größtmöglicher Sicherheit vorzubeugen.
Der Ansatz eine \emph{anthropomorphe} Maschine, also ein System mit menschenähnlichen Eigenschaften, zu entwickeln, ist bedenklich. Während einige menschliche Werte und Eigenschaften implementiert werden müssen, um mögliche Dissonanzen zwischen der AKI und der Menschheit zu vermeiden, dürfen andere menschliche Eigenschaften nicht übernommen werden. Ansonsten werden Vorurteile ohne rationalem Grundsatz in das System aufgenommen, was zu systematischer Diskriminierung führt, sodass eine AKI beim Erreichen ihrer Ziele beispielsweise Frauen oder Afrikaner benachteiligt oder Asiaten automatisch als intelligenter einstuft.\vgl{yudkowsky_what_2001}
Menschliche Werte in einer Programmiersprache nachzubilden ist nach der \emph{Complexity of Value Thesis} aufwendig, da sie -- selbst in idealisierter Form -- eine hohe algorithmische Komplexität vorweisen. Daher muss eine AKI komplexe Informationen gespeichert haben, damit sie die ihr vorgegebenen Ziele auf eine menschengewollte Weise erfüllen kann. Dabei reichen auch keine vereinfachten Zielstellungen wie \quotes{Menschen glücklich machen} \vgl[13-14]{yudkowsky_intelligence_2013}, denn es gibt keinen \quotes{Geist im System}, der diese abstrakte Zielsetzung ohne Weiteres versteht.
\citeauthor{hibbard_super-intelligent_2002} beschreibt in seinem Buch \enquote{Super-Intelligent Machines} eine Möglichkeit, Maschinen das abstrakte Gefühl der Freude zu erklären. Dabei lernt eine hypothetische KI durch einen riesigen Datensatz, bei welchen Gesichtsausdrücken, Stimmeigenschaften und Körperhaltungen ein Mensch glücklich ist.\vgl[115]{hibbard_super-intelligent_2002} Yudkowsky ist der Meinung, dass dies keinesfalls eine Lösung für das Problem der exakten Zielsetzung ist und führt Hibbards Gedankenexperiment fort. Falls diese KI nun ein Bild von einem winzigen, molekularen Smiley-Gesicht sieht, so besteht die Möglichkeit, dass die KI dies als Glücklichsein interpretiert und das Universum in eine einzige Ansammlung von winzigen, molekularen Smiley-Gesichtern umzuwandeln versucht, um den höchstmöglichen Zustand des Glücklichseins zu erreichen. \vgl[3]{yudkowsky_complex_2011}
\section{Wann wird es sie geben?} \label{akidatum}
Eine Befragung durch die \citeauthor{muller_future_2016} kam zu dem Ergebnis, dass KI-Experten dem Erreichen einer AKI in den Jahren 2040 bis 2050 eine Wahrscheinlichkeit von über 50 und dem Erreichen bis 2075 eine Wahrscheinlichkeit von 90 Prozent zuordnen. \vgl[566]{muller_future_2016} Es ist also -- sollten sich die Expertenmeinungen als richtig herausstellen -- davon auszugehen, dass eine AKI bereits in diesem Jahrhundert zur Realität und bereits für die jetzige Generation relevant sein wird. Kritiker dieser Meinung weisen darauf hin, dass es ähnliche Schätzungen bereits seit den Siebzigerjahren gibt und sie sich immer wieder als falsch herausgestellt haben. \citeauthor{allen_paul_2011} behaupten, es bräuchte noch einige wissenschaftliche Durchbrüche, um eine AKI noch in diesem Jahrhundert zu erreichen. \vgl{allen_paul_2011} Auch die Möglichkeit ihrer Entwicklung ist nicht unumstritten, jedoch gibt es keine Anzeichen, die darauf hindeuten, dass eine solche Entwicklung unmöglich ist. KI-Sicherheit betrifft aber auch schwache KIs wie sie schon existieren. Es muss alsbald eine Möglichkeit gefunden werden, das Verhalten einer KI an die Werte der Menschheit anzupassen. Eine mögliche AKI würde die Folgen einer \enquote{unangepassten} künstlichen Intelligenz nur verstärken.
\section{Die These der Intelligenzexplosion}
Eine AKI werde -- unabhängig von ihren Zielen -- Selbstoptimierung hinsichtlich ihrer Intelligenz anstreben, weil sie dadurch ihre Ziele schneller und effizienter erreichen könne. Sobald die erste KI programmiert werden würde, die qualitativ bessere -- also noch intelligentere -- KIs programmieren könnte, käme es zu einem Kreislauf der kognitiven Leistungssteigerung. Die KI der Tochtergeneration könnte nun als verbesserter KI-Designer noch bessere KIs programmieren. Anders als bei biologischer Intelligenz kann eine KI bei Verfügbarkeit entsprechender Hardware einfach kopiert werden. Eine Gruppe von KIs hätte dann gemeinsam quantitativ und qualitativ höhere kognitive Fähigkeiten, ähnlich einer Schwarmintelligenz. Dieser hypothetische Kreislauf ist die Grundlage der These der Intelligenzexplosion. Nach ihr wird ab einer bestimmten Schwelle die Leistungssteigerung mit jeder KI-Iteration größer, was zu einer \emph{Superintelligenz} führt, die der Menschheit kognitiv deutlich überlegen ist. (Der Intelligenzbegriff wird in dieser Arbeit anhand der Fähigkeit zur Zielerreichung definiert, siehe Kapitel \ref{Intelligenzbegriff}) \vgl[13]{muehlhauser_intelligence_2012}
Einige Informatiker, unter ihnen \citeauthor{lanier_who_2013}, behaupten, dass sich eine Technologie nicht ohne fortlaufenden Input verbessern könne. \vgl[299]{lanier_who_2013} Diese These wurde jedoch empirisch widerlegt. \citeauthor{silver_mastering_2017} haben einen Algorithmus entwickelt, der ohne Vorwissen und ohne jegliche Beispieldaten das Spiel \emph{Go} von Grund auf gelernt hat. Die KI -- AlphaGo Zero ihr Name -- spielt nach einer Trainingszeit von drei Stunden auf dem Niveau eines Anfängers und ist nach drei Tagen besser als der beste menschliche Spieler. Nach 40 Tagen ist sie der beste Go-Spieler der Welt und stärker als jeder andere Go-Computer. \vgl{silver_mastering_2017}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "document"
%%% End: