Da is doch nix "Ki" - das is einfach nur n Proggi wie aus dem Jahre 2001 - nur halt neuste Version/Features/gepaart mit neuster Hardware.
Ähm, naja, über den Begriff kann man streiten, aber wenn du das was aktuell als KI bezeichnet wird auch nur als "Algoritmus wie man ihn vor 30 Jahren auch schon programmiert hat" bezeichnest, dann ist ein SSD auch nur die neuere Version eines Lochkartenstreifens. Schließlich tun beide nichts anderes als Daten zu speichern.
Der essenzielle Unterschied zwischen KI und einem "stinknormalem" Algorithmus ist, das der Algorithmus zielgerichtet und somit spezialisiert auf einen Anwendungsfall entwickelt wird. Jedes Datum, jeder Zusammenhang der dabei berücksichtigt wird, wird da schon vom Entwickler vorgegeben und fest einprogrammiert.
"KI" dagegen sind generische Systeme. Da wurde kein spezieller Anwendungsfall implementiert. Den Anwendungsfall trainiert man diesem generischem System erst später an. Da wird aber nichts mehr programmiert. Die den problemlösenden Teil des Algorithmus ermittelt die KI beim Training selbst auf ihrer generischen Funktionsweise aufbauend.
Wenn man so will, ist KI die programmierte Nachahmung einer Nervenzelle. Und davon verbindet man dann Milliarden untereinander. Und alleine schon weil das soviele Einzelteile sind, kann selbst der Entwickler einer KI kaum mehr nachvollziehen, warum die KI bestimmte Ergebnisse liefert, oder wie sie die überhaupt ermittelt. Da ist auch nix mehr mit "debuggen" oder so.
Examplarisches Beispiel Bilderkennung:
Einer KI wirft man zum Training hunderttausende Bilder mit Tieren vor. Zusätzlich zu diesen Bilddaten ist hinterlegt ob auf dem jeweiligen Bild ein Hund zu sehen ist oder eben nicht, also quasi die Antworten bekannt sind. Das sind die Trainingsdaten. Die KI ermittelt/lernt daraus selbstständig an welchen Merkmalen den erkennt ob ein Tier ein Hund ist oder nicht. Genaus wie ein Kind lernt, indem die Eltern 50.000mal auf ein Tier zeigen und sagen "das ist ein Hund", "Nein, das ist eine Katze, also kein Hund".
Bei einem klassischen Algorithmus dagegen muss der Entwickler die Merkmale festlegen. Z.B. Sind es weniger oder mehr als 4 Beine, ist es kein Hund. Und dabei hat er schon vergessen, das ein Hund auch amputiert sein kann und somit vielleicht doch nur 3 Beine hat, aber eben trotzdem ein Hund ist. Abgesehen davon das er dafür erstmal einen Unteralgorithmus programmieren müsste, der erkennt, was auf einem Bild überhaupt ein Bein ist.
Angelehnt an diesem Beispiel funktioniert z.B. Texterkennung mit entsprechend trainierter KI sehr gut, sogar mit Handschriften, wo jeder "dumme" OCR-Algorithmus komplett versagt.