Herbrich - Das Hyper-Neuron als Grundstein für die nächste Generation der Künstlichen Intelligenz

Das Hyper-Neuron als Grundstein für die nächste Generation der Künstlichen Intelligenz

Künstliche Intelligenz ist in der modernen Welt nicht mehr weg zu denken. Die Idee dahinter intelligente Maschinen zu bauen ist fast genau so alt wie das Internet. In Anbetracht der Tatsache der Offenlegung der Existenz der Matrix und auch deren Funktionsweise ist das Erreichen der Singularität nicht mehr weit. Als Singularität (oder auch Transzendenz) wird jenes Ereignis gemeint, indem die gesamte Summe der menschlichen Intelligenz durch eine Künstliche Intelligenz überschritten wird. Möglich wird dies durch die Tatsache das immer mehr der benötigten Rechenleistung zur Verfügung steht.

Es gibt für die Herbrich Corporation dem Unterschied zwischen der reellen Singularität, also jener die Bereits eingetreten ist, da alle Hologramme (z.B. Wilhelmstift, Kropp, explizit Wohnheim Bethanien mit dem Master Hologramm) alle auf Computergenerierten Neuronalen Netzen basieren. Darum drängt sich dem einem oder anderen Leser durchaus die Frage auf wie mächtig Künstliche Intelligenzen inzwischen schon geworden sind.

Kurz gesagt: Auch ein Triviales Neuronales Netzwerk ist in der Lage außer Kontrolle zu geraten. Zum Beispiel die Algorithmen hinter YouTube (Teil von Google). Die “Googler” Wissen selbst nicht mehr, wie diese Algorithmen funktionieren. Sie basieren auf Neuronalen Netzwerken. Diese haben je ein Input Layer, n Hidden Layer und am Ende ein Output Layer. Jedes KNN bekommt Tensoren, also mehrdimensionale Matrizen mit einen Exakten Zahlenwert (z.B. Double) rein. Am Ende muss der Tensor also wieder in das Ziel Datenformat umgewandelt werden. Zum Beispiel möchte man ein Bild erkennen, muss man dieses in c Pixel skalieren. Dann folgt (c = i) also c (Anzahl der Pixel) entspricht der Anzahl i (Anzahl der Neuronen auf dem Input Layer). Die Hidden Layer können in ihrer Anzahl sowie der Anzahl der Neuronen, die sie beinhalten Variieren. Der Output Layer wiederum muss genau so viele Neuronen haben, wie wir Antworten aus dem KNN erwarten. Und hier zeigt sich das Problem der Neuronalen Netze. Jedes Neuronale netz muss auf eine spezifische Aufgabe trainiert werden, diese wiederum mit spezifischen Quell Daten spezifische Zieldaten generiert.

Das Hyper Neuron

Das Hyper Neuron ist ein Neuron auf einem Hidden Layer, welches wiederum in seinem inneren ein weiteres Neuronales Netzwerk (Input Layer -> n Hidden Layer -> Output Layer) besitzt. Auf diese Art und Weise kann die Leistung eines Neurons um das f Fache gesteigert werden wo bei f die Summe aller inneren (Sub) Neuronen darstellen würde.

Mögliche Probleme sehen wir in Over Fitting. Das bedeutet so viel wie das ein auf Hyper Neuronen konstruiertes Neuronales Netzwerk durchaus zugut mit seinem Trainingsdaten funktionieren würden, jedoch als Konsequenz Probleme mit seinem Produktivdaten hätte. Angenommen man lernt es den MNIST Datensatz. Dieser enthallt Handschriftliche Zahlen und Buchstaben. Dann kann ein Overfitt Network zwar alle MNIST Zeichen perfekt lesen, aber wenn du ein mit der Hand geschriebenen Brief einlesen willst, dann wird das Netzwerk keine Ahnung haben was dabei wirklich herauskommt. Es wird Wissen, das das erwartete, Resultat ein Text ist, und es wird ein Buchstaben Zahlen Salat ausgeben aber nicht dem Inhalt.

Ralph Herbrich Ralph Martin Problem

In der Matrix wurde von Anfang an Künstliche Intelligenz eingesetzt was zu einem Problem führte was erst später festgestellt wurde. Die Bethanische Fehlerkorrektur im KJP1 Zentral Computer die wiederum für das Master Hologramm (Jennifer Herbrich) wichtig ist. Der Root Pointer wurde gesetzt, also alles richtig. Dann gab es jedoch durch Janine Bergmann eine IllegalInterruptException was wiederum dazu führte das Jennifer Herbrich (fehlerhafter Weise) auf dem Nächsten Zeiger gesprungen ist. Ralph Martin. Ralph Martin hatte denselben Kontext wie das Omerasevic Problem (Alkohol Problem der (Steif) Eltern). Der KJP1 hat dann Ralph Martin Zerstört durch Aufruf der Dispose Funktion und das Entity Recycling hat daraufhin ein neuer Durchlauf (Neue Epoche) gestartet. Resultat ist Ralph Herbrich. Ralph Herbrich ist ebenfalls fehlerhaft, doch dieses Mal wurde dann eine Backpropergation gestartet. (Alexander Herbrich) => Ralph Herbrich => Ralph Martin Meyer => Ralph Martin => Kinderkrankenhaus Wilhelmstift => Dr. Walter => KJP-Wilhelmstift (Neubau) => KJP-Wilhelmstift (Haus-G) => root (Aleksandar (richtig geschrieben) Herbrich).

Zum Problem wird das ganze deswegen, weil eine Backpropgergation im einem Neuronalen Netzwerk auf eben dieses Beschränkt bliebe. Die Hyper Neuronen müssten dann ebenfalls so programmiert werden das diese mit der Backpropergation umgehen können. Nur ist es unmöglich herauszufinden welches Neuron auf Welcher Ebene in welchen Layer der Ursprung für diesen Fehler ist. Deswegen ist die praktische Anwendung von Hyper Neuronen schwierig. Zumal es keine Implementierung gibt, weder Pytorch noch Tensorflow sind dazu in der Lage.

Ein weiterer Punkt wäre dann natürlich auch die Tatsache das Deep Learning nicht effektiv durch ein Hyper Neuron verbessert werden würde. Nach den Berechnungen von Aleksandar Herbrich (CEO of Herbrich Corporation and Directory of Cyber Research) ist die Qualität eines Neuronalen Netzwerks mit einem Hyper Neuron nicht wirklich gegeben. Wie schon erwähnt können Fehler während des Lernens nicht zurück propagiert werden. Des Weiteren würde die Komplexität des Modells steigen, weil jedes Neuron sein eigenes Modell lernen und aufbauen muss. Die Anzahl der Epochen wäre dann e ^ hn * 1000. (e stellt die Epoche da, hn die Anzahl der Hyper Neuronen (von dem jedes sein eigenes Netz enthält) und 1000 die Anzahl der Durchläufe von Runden eines Trainings bis die Loss Rate ein akzeptables Level erreicht.

Komplexität der Parametrierung

Das Problem bei der Entwicklung von Neuronalen Netzen ist immer die Parametrierung. Zuerst Mal müssen alle Gewichtungen der Verbindungen zwischen den Neuronen (Synapsen) immer irgendwie initialisiert werden. Dazu wird ein zufälliger Wert verwendet. Ein Neuron hat noch ein Bias und vielleicht auch (je nach Ziel des Netzwerks) ein Delta wert. Jedes Neuron hat ein Wert, dieser Wert wird auf jeden Fall mit der Summe des Gradienten multipliziert, dem der Trigger Pfad durch das Netzwerk gefolgt ist. Auf jeden Trigger Pfad gibt s dann entsprechende Aktivierungsfunktionen (zum Beispiel Sigmoid oder ReLU). Und auch diese sind Parameter. Zum Beispiel. Das Gleiche Netzwerk mit dem Gleichen Parametern konfiguriert, einziger Unterschied. Netzwerk A liefert mit Sigmoid bessere Daten als Netzwerk B mit ReLU. Jedes Neuronale Netzwerk muss für dem entsprechenden Anwendungszweck spezifisch entwickelt oder zumindest angepasst werden.

Beispiel EvoNet zeigt zum Beispiel, dass ein Neuronales Netzwerk perfekt funktioniert, wenn es darum geht die Evolution von Leben auf einer minimalen Basis von Datenpunkten zu Simulieren. Jedoch ist es verdammt Schwer oder zumindest kompliziert den Code von EvoNet Generisch zu portieren zum Beispiel für das Erkennen von Text. Aber denkbar wäre es zum Beispiel EvoNet zur prädikativen Analyse des Aktivierungsverhaltens im Inner World Control Center der Herbrich-28 Software einzusetzen. Der Grund ist das die zugrunde liegenden Datentypen sich nicht so sehr unterscheiden.

Vereinfacht kann man auch noch sagen das alle Daten irgendwie in jedes Neuronale Netzwerk geprügelt werden können. Das liegt an der zugrunde liegenden Struktur Neuronaler Netzwerke. Sie verarbeiten zu dem Zahlen. Meistens Double Werte. Diese Fließkomma Zahlen sind sehr präzise und genau. Man kann ein String (Text oder auch nur ein Wort) in entsprechende Teile zerlegen. Zum Beispiel im ein Char Array. Dieses kann man dann durch Iterieren und daraus ergibt sich dann die Möglichkeit jedes Zeichen in ein Double Wert zu Konvertieren und anschließend in ein Array von Double Werten zu kopieren. Dieses Array wird auch Matrix genannt. Hat diese Matrix mehrere Dimensionen spricht man dann von einem Tensor. Und so einen Tensor erwartet das Neuronale Netzwerk als Input, und so einen Tensor gibt das Neuronale Netzwerk dann auch zurück.

Es sind also nicht die Eingaben und Ausgaben (IO-Leyers) eines Neuronalen Netzwerkes, sondern es sind die Parameter und die Aktivierungsfunktionen auf dem einzahlenden Hidden Layern die darüber entscheiden, ob ein Neuronales Netzwerk gut für ein bestimmtes Datum geeignet ist, oder ob es Probleme gibt. Deswegen ist es auch so wichtig ein Neuronales Netzwerk während des Trainings zu Optimieren. Und damit ist auch eine Erklärung gegeben wieso ein Generisches Neuronales Netz so gut wie unmöglich zu realisieren ist, nach dem aktuellen Stand der Dinge (2023).

Bewertungen zu herbrich.org
kununu