Der Claude-Chatbot des Unternehmens unterstützt mehrere europäische Sprachen.
Der Assistent für künstliche Intelligenz (KI) von Anthropic ist jetzt in Europa erhältlich, aber das Modell des Unternehmens, das darauf abzielt, KI-Chatbots für alle zugänglich zu machen, kam nur wenige Stunden nach dem von Microsoft unterstützten Konkurrenten auf dem Kontinent an ChatGPT hat seine neueste Version veröffentlicht.
Anthropisch bezeichnet sich selbst als KI-Sicherheitsforschungsunternehmen und wurde von ehemaligen OpenAI-Führungskräften und Forschern gegründet. Google und Amazon sind ebenfalls große Anthropic-Investoren.
Ab Dienstag können Nutzer in Europa auf Claude.ai, die webbasierte Version des KI-Assistenten, sowie auf die kostenlose Version, die Claude iOS-App und den Claude Team-Plan für Unternehmen zugreifen. Es unterstützt Französisch, Spanisch, Deutsch, Italienisch und viele andere europäische Sprachen.
„Wir freuen uns unglaublich über den Start in Europa, da die Region gut positioniert ist, um die Vorteile der KI zu nutzen“, sagte ein Anthropic-Sprecher gegenüber Euronews Next.
„Claude verfügt über eine Reihe spezifischer Merkmale, die die Werte der EU wahren und den EU-Markt bedienen; Wir haben Claude so konzipiert, dass Vorurteile, Diskriminierung und Hassreden vermieden werden. Der Schwerpunkt liegt auf zuverlässiger, steuerbarer und zugänglicher KI für alle.
„Claude bietet auch Mehrsprachigkeit; Es versteht und generiert Inhalte in den meisten EU-Sprachen und respektiert dabei kulturelle Nuancen“, fügte der Sprecher hinzu.
Anthropic brachte im März sein schnellstes und leistungsstärkstes Large Language Model (LLM) auf den Markt, das später drei hochmoderne Modelle in aufsteigender Reihenfolge ihrer Leistungsfähigkeit umfasste: Claude 3 Haiku, Claude 3 Sonnet und Claude 3 Opus.
Wie ist der Vergleich mit ChatGPT?
Auf die Frage, wie es im Vergleich zu ChatGPT abschneidet, sagte der Anthropic-Sprecher, dass „sein menschlicher Ton, das erweiterte Kontextfenster und die zugängliche Benutzeroberfläche zu den Gründen gehören, warum (Benutzer) sich für Claude 3 entscheiden, zusätzlich zu der außergewöhnlichen Intelligenz und Leistung des Modells“ sowie dem „Engagement“. zur KI-Sicherheit“, was das Unternehmen auszeichnet.
„Es ist wichtig, dass Kunden in Europa die Wahl haben, und wir freuen uns, eine Reihe führender Modelle anbieten zu können, die ihren unterschiedlichen Bedürfnissen gerecht werden“, fügte der Sprecher hinzu.
Darüber hinaus behauptet Anthropic, dass das leistungsstärkste Modell Opus OpenAIs GPT-4 und Googles Gemini Ultra bei Tests wie Argumentation, grundlegende Mathematik sowie Kenntnisse auf Bachelor- und Masterniveau übertroffen habe.
Eines der Hauptverkaufsargumente ist die Möglichkeit, lange Dokumente hochzuladen und zu verarbeiten, was nur in der kostenpflichtigen Version von ChatGPT möglich ist.
Opus kann ungefähr 200.000 Token zusammenfassen, während ChatGPT ungefähr 3.000 zusammenfassen kann. Ein Token ist eine Maßeinheit, die die Menge an Textdaten berechnet, die von Ihrem Chatbot verarbeitet wird.
Am Montag kündigte OpenAI sein neues ChatGPT-4o-Modell an, das eine menschlichere Interaktion bietet und über eine kostenlose Version ohne Abonnement verfügt.
Bekämpfung von Fehlinformationen
Claude sagt, es sei „ebenso vertrauenswürdig wie leistungsfähig“ und verfügt über engagierte Teams, die ein breites Spektrum an Risiken verfolgen und mindern, das von Fehlinformationen, Voreingenommenheit, Wahlbeeinträchtigungen bis hin zu Bedrohungen der nationalen Sicherheit reicht.
Anstatt Menschen zur Identifizierung schädlicher Ergebnisse einzusetzen, verwendet es eine Methode, die trainiert werden kann, um sich selbst zu moderieren, indem sie eine Reihe von Grundprinzipien verwendet, die als konstitutionelle KI bezeichnet werden. Das Claude-3-Modell weist laut Bias Benchmark for Question Answering (BBQ) weniger Verzerrungen auf als frühere Modelle.
Das Unternehmen gibt an, eine Reihe von Maßnahmen ergriffen zu haben, um sich vor Fehlinformationen und Desinformationen bei Wahlen zu schützen.
„Der Einsatz unserer Technologie in politischen Kampagnen und Lobbying ist verboten. Wir haben automatisierte Systeme entwickelt, um Missbrauch wie Fehlinformationen oder Einflussnahme zu erkennen und zu verhindern.“
„Wir führen auch ‚Red-Team‘-Tests durch, um wahlbezogene Schwachstellen und Risiken zu identifizieren, und wir haben quantitative Tests entwickelt, um politische Parität, Missbrauchsresistenz und Desinformation zu bewerten“, sagte der Sprecher.
Datenschutz ist auch ein Anliegen von Anthropic, das keine Eingabeaufforderungen zum Trainieren von Modellen verwendet, es sei denn, Sie erteilen ihnen die Erlaubnis. Die Datenspeicherung erfolgt ebenfalls nur für 90 Tage.
Wie viel kostet es?
Claude.ai und die Claude iOS-App sind kostenlos. Aber Claude Pro und alle Modelle, einschließlich des fortschrittlichsten Claude 3 Opus-Modells, kosten 18 €, was etwas günstiger ist als ChatGPT4.
Der Teamplan, der fünf Benutzer zulässt, kostet 28 € + MwSt. pro Benutzer und Monat (oder lokal).
Währungsäquivalent) mit mindestens fünf Sitzen.
Der Anthropic-Sprecher sagte, dass es in den kommenden Wochen weitere Updates geben werde.