Was ist freundliche KI?

Freundliche KI ist ein Begriff, der von Forschern der Künstlichen Intelligenz (KI) verwendet wird, um sich auf KI-Systeme zu beziehen, die im Allgemeinen Aktionen ausführen, die eher für die Menschheit hilfreich als neutral oder schädlich sind. Dies bedeutet nicht blinden Gehorsam - im Gegenteil, der Begriff wird verwendet, um KI-Systeme zu beschreiben, die freundlich sind, weil sie es wollen, und nicht, weil sie von außen auferlegt werden. Friendly AI bezeichnet nicht nur fertige Systeme, sondern auch die theoretische und technische Disziplin, mit der solche Systeme erfolgreich erstellt werden können.

Der Begriff "Friendly AI" stammt von Eliezer Yudkowsky vom Singularity Institute for Artificial Intelligence, dessen Ziel die Schaffung von Friendly AI ist, die intelligent genug ist, um den eigenen Quellcode ohne Eingreifen des Programmierers zu verbessern. Seine buchlange Arbeit zum Thema " Creating Friendly AI" , die 2001 online veröffentlicht wurde, ist wahrscheinlich die erste rigorose Auseinandersetzung mit dem Thema. Yudkowsky beruft sich auf Argumente aus der Evolutionspsychologie und anderen kognitiven Wissenschaften, um seine Herangehensweise an das Problem der freundlichen KI zu unterstützen.

Freundliche KI wird als akademische Disziplin als wichtig angesehen, da frühere Versuche, das Problem der falschen KI zu "beantworten", im Allgemeinen strenge programmatische Einschränkungen mit sich brachten, die unter alternativen Interpretationen zusammenbrechen müssen, wenn die KI schlauer als der Mensch wird oder einfach, wenn sie die KI gewinnt Fähigkeit, sich selbst neu zu programmieren. Anthropomorphismus ist auch ein Problem in der KI. Da die Evolution Organismen aufbaut, die dazu neigen, egoistisch zu sein, gehen viele Denker davon aus, dass jede KI, die wir aufbauen, die gleiche Tendenz hat, entweder sofort oder nachdem sie klug genug geworden ist.

Die Evolution baut Organismen mit egozentrischen Zielsystemen auf, weil es keinen anderen Weg gibt. Die Entwicklung altruistischer Zielsysteme dauerte viele Millionen Jahre, und dies nur unter Bedingungen, unter denen Mitglieder desselben Stammes viel gewinnen konnten, indem sie sich gegenseitig halfen, und viel verlieren konnten, indem sie es versäumten, dies zu tun. Aber wenn wir einen Geist von Grund auf neu entwerfen würden, könnten wir ihn ohne ein egozentrisches Zielsystem aufbauen. Dies würde nicht "die KI einschränken" - es würde einfach eine KI schaffen, die von Natur aus selbstlos ist.

Die obige Beobachtung ist eine von vielen, die zum Bereich der freundlichen KI beitragen, der äußerst neu ist und noch viel Arbeit benötigt. Einige KI-Forscher argumentieren, dass wir die Konstruktionsmerkmale, die für die Implementierung von Friendly AI erforderlich sind, erst bestimmen können, wenn wir intelligentere KI-Systeme zum Experimentieren haben. Andere argumentieren, dass ein rein theoretischer Ansatz nicht nur möglich, sondern auch ethisch notwendig ist, bevor ein ernsthafter Versuch einer allgemeinen KI unternommen wird.

ANDERE SPRACHEN

War dieser Artikel hilfreich? Danke für die Rückmeldung Danke für die Rückmeldung

Wie können wir helfen? Wie können wir helfen?