- Digitale Suchmaschinen sind durch Spam und Anzeigen beeinträchtigt. Künstliche Intelligenz wie Pearl kombiniert KI-Antworten mit menschlicher Verifizierung. Pearl bietet ein Freemium-Modell mit kostenlosem Zugang zu KI-Antworten und erweitertem Expertenwissen gegen Gebühr. Die rechtliche Einordnung von KI-Inhalten unter Section 230 bleibt umstritten. Pearl zeigt die Grenzen von KI und menschlicher Expertise bei komplexen Anfragen.
Als digitale Suchmaschinen das Licht der Welt erblickten, erschienen sie wie technologische Wunderwerke. Doch in der gegenwärtigen digitalen Landschaft sind sie vielfach durch Spam und Anzeigen beeinträchtigt. Branchenriesen wie Google behaupten unnachgiebig, dass Künstliche Intelligenz die Zukunft der Suche rettet. Selbst wenn viele erste Versuche in diesem Bereich fehlschlugen, gewinnt die Welle der KI-gesteuerten Suchdienste an Dynamik. Beispiele hierfür sind Perplexity und OpenAI’s SearchGPT. Kürzlich erhielt ich eine E-Mail über eine innovative KI-Suchmaschine, die sich durch einen besonders ausgefallenen Ansatz zur Beantwortung von Fragen auszeichnet. Diese Entwicklung namens Pearl verlässt diese Woche die Beta-Phase. Zu Beginn bietet Pearl, wie andere KI-Suchdienste, Antworten durch große Sprachmodelle an, kombiniert jedoch mit einer menschlichen Verifizierung und der Möglichkeit, mit Experten online oder telefonisch zu kommunizieren.
Die Verschmelzung von KI und Menschlichkeit
Das Konzept von Pearl wirft die berechtigte Frage auf, warum überhaupt KI-Antworten genutzt werden, wenn doch direkt menschliches Wissen bereitsteht. Der Vorstandsvorsitzende, Kurtzig, erklärt, Pearl sei die Weiterentwicklung eines Projekts, an dem er seit Jahrzehnten arbeitet: einem traditionelleren Angebot namens JustAnswer. Dieses Projekt verbindet Fragesteller mit Fachleuten gegen eine Abonnementgebühr. „Vor etwa elf Jahren begannen wir mit der Verschmelzung von KI und professionellen Diensten“, sagt Kurtzig. Als der Boom der generativen KI einsetzte, beschlossen sie, Pearl als eigenständiges Produkt weiterzuentwickeln. Pearls Sprachmodell basiert auf mehreren populären Grundlagenmodellen, darunter ChatGPT, und ist angepasst mit den umfangreichen Daten von JustAnswer, die seit 2003 gesammelt wurden.
Kostengünstiger Zugang zu Expertenwissen
Ein interessanter Aspekt von Pearl ist der Versuch, den Zugang zu Fachwissen einfacher und erschwinglicher zu gestalten. Im Gegensatz zu JustAnswer, das eine Abonnementgebühr erfordert, nutzt Pearl ein Freemium-Modell: Die KI-generierten Antworten und die erste Schicht der menschlichen Überprüfung, der sogenannte TrustScore™, sind kostenlos. Pearl-Nutzer, die weitergehendes Expertenwissen wünschen, können für eine Monatsgebühr von 28 Dollar auf eine Expertenberatung zugreifen. Während Kurtzig darauf vertraut, dass Pearl dank seiner Expertensysteme rechtlich besser dasteht als andere KI-Suchmaschinen, bleibt dies ein umstrittenes Thema. Der TrustScore™ bezieht sich auf die Qualität einer KI-Antwort auf einer Skala von 1 bis 5. Ein rechtlicher Knackpunkt ist die Einordnung von Suchmaschinen unter den Schutz von Section 230 des Communications Decency Act.
Rechtsfragen und die Grenzen von KI
Section 230 würde Pearl als “interaktiven Computerdienst” klassifizieren, was theoretisch rechtlichen Schutz gewähren könnte. Allerdings bleibt die Anwendbarkeit auf KI-generierte Inhalte umstritten. Der praktische Einsatz von Pearl zeigte, dass sowohl KI als auch menschliche Experten nicht immer überzeugende Antworten liefern. Bei einer Recherche zu den gesetzlichen Grundlagen wurde, nach mehreren Anläufen und einem recht gemischten TrustScore™, schließlich ein menschlicher Experte hinzugezogen. Dieser jedoch zeigte sich kaum zutreffender als die KI selbst, oft engagiert in einer laufenden rechtlichen Debatte ohne klaren Standpunkt. Dies verdeutlicht, dass selbst hoch entwickelte Systeme, die menschlicher Expertise den Vorzug geben, nicht gegen die Schwächen der KI gefeit sind. Während Pearl für manche Fragen passable Antworten liefert, bleibt die endgültige Bewertung durch Experten oft ähnlich unbefriedigend wie die KI-Antworten selbst.