Anthropic sagt, dass es Ihre privaten Daten nicht zum Trainieren seiner KI verwenden wird – Decrypt

Anthropic sagt, dass es Ihre privaten Daten nicht zum Trainieren seiner KI verwenden wird – Decrypt

Anthropic sagt, dass es Ihre privaten Daten nicht zum Trainieren seiner KI verwenden wird – Decrypt PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Das führende generative KI-Startup Anthropic hat erklärt, dass es die Daten seiner Kunden nicht zum Trainieren seines Large Language Model (LLM) verwenden wird und dass es eingreifen wird, um Benutzer vor Urheberrechtsansprüchen zu verteidigen.

Anthropic, gegründet von ehemaligen Forschern von OpenAI, hat seinen Werbespot aktualisiert Nutzungsbedingungen seine Ideale und Absichten darzulegen. Durch die Ausgliederung der privaten Daten seiner eigenen Kunden differenziert sich Anthropic deutlich von Konkurrenten wie OpenAI, Amazon und Meta, die Benutzerinhalte nutzen, um ihre Systeme zu verbessern.

„Anthropic darf Modelle nicht auf Kundeninhalten aus kostenpflichtigen Diensten trainieren“, heißt es in den aktualisierten Bedingungen, in denen hinzugefügt wird, dass „Anthropic im Verhältnis zwischen den Parteien und im gesetzlich zulässigen Umfang zustimmt, dass der Kunde Eigentümer aller Ausgaben ist und jegliche Rechte daran ablehnt.“ erhält der Kunde Inhalte gemäß diesen Bedingungen.“

In den Bedingungen heißt es weiter: „Anthropic geht nicht davon aus, im Rahmen dieser Bedingungen irgendwelche Rechte an Kundeninhalten zu erlangen“ und dass sie „einer der Parteien keinerlei Rechte an den Inhalten oder dem geistigen Eigentum der anderen einräumen, weder stillschweigend noch auf andere Weise.“

Das aktualisierte Rechtsdokument bietet angeblich Schutz und Transparenz für die kommerziellen Kunden von Anthropic. Unternehmen besitzen beispielsweise alle erzeugten KI-Ausgaben und vermeiden so potenzielle IP-Streitigkeiten. Anthropic verpflichtet sich außerdem, Kunden vor Urheberrechtsansprüchen bezüglich aller von Claude produzierten rechtsverletzenden Inhalte zu schützen.

Die Richtlinie stimmt mit überein Anthropics Mission Aussage, dass KI nützlich, harmlos und ehrlich sein sollte. Da die öffentliche Skepsis gegenüber der Ethik der generativen KI zunimmt, könnte das Engagement des Unternehmens, Bedenken wie den Datenschutz anzugehen, ihm einen Wettbewerbsvorteil verschaffen.

Benutzerdaten: Lebenswichtige Nahrung für LLMs

Große Sprachmodelle (LLMs) wie GPT-4, LlaMa oder Claude von Anthropic sind fortschrittliche KI-Systeme, die menschliche Sprache verstehen und generieren, indem sie auf umfangreichen Textdaten trainiert werden. Diese Modelle nutzen Deep-Learning-Techniken und neuronale Netze, um Wortsequenzen vorherzusagen, den Kontext zu verstehen und die Feinheiten der Sprache zu erfassen. Während des Trainings verfeinern sie ihre Vorhersagen kontinuierlich und verbessern so ihre Fähigkeit, sich zu unterhalten, Texte zu verfassen oder relevante Informationen bereitzustellen. Die Wirksamkeit von LLMs hängt stark von der Vielfalt und dem Umfang der Daten ab, auf denen sie trainiert werden. Dadurch werden sie genauer und kontextbewusster, wenn sie aus verschiedenen Sprachmustern, Stilen und neuen Informationen lernen.

Und deshalb sind Benutzerdaten für die Ausbildung von LLMs so wertvoll. Erstens stellt es sicher, dass die Modelle mit den neuesten sprachlichen Trends und Benutzerpräferenzen Schritt halten (z. B. das Verständnis neuer Slangs). Zweitens ermöglicht es eine Personalisierung und eine bessere Benutzereinbindung durch die Anpassung an individuelle Benutzerinteraktionen und -stile. Dies führt jedoch zu einer ethischen Debatte, da KI-Unternehmen ihre Nutzer nicht für diese wichtigen Informationen bezahlen, die zum Trainieren von Modellen verwendet werden, die ihnen Millionen von Dollar einbringen.

Wie berichtet, Entschlüsseln, Halb vor kurzem aufgedeckt dass es sein kommendes LlaMA-3 LLM auf der Grundlage von Benutzerdaten trainiert und seine neuen EMU-Modelle (die Fotos und Videos aus Textaufforderungen generieren) auch mithilfe öffentlich verfügbarer Daten trainiert wurden, die von seinen Benutzern in sozialen Medien hochgeladen wurden.

Darüber hinaus gab Amazon bekannt, dass sein kommendes LLM, das eine aktualisierte Version von Alexa unterstützen würde, ebenfalls anhand der Gespräche und Interaktionen der Benutzer trainiert wird. Benutzer können sich jedoch von den Trainingsdaten abmelden, die standardmäßig davon ausgehen, dass die Benutzer damit einverstanden sind „[Amazon] war schon immer davon überzeugt, dass es wichtig ist, Alexa mit realen Anforderungen zu trainieren, um den Kunden ein präzises und personalisiertes Erlebnis zu bieten, das ständig besser wird“, sagte ein Amazon-Sprecher sagte Entschlüsseln. „Aber gleichzeitig geben wir den Kunden die Kontrolle darüber, ob ihre Alexa-Sprachaufzeichnungen zur Verbesserung des Service verwendet werden, und wir berücksichtigen stets unsere Kundenpräferenzen, wenn wir unsere Modelle trainieren.“

Da Technologiegiganten um die Veröffentlichung der fortschrittlichsten KI-Dienste konkurrieren, sind verantwortungsvolle Datenpraktiken der Schlüssel zum Gewinn des öffentlichen Vertrauens. Anthropic möchte in dieser Hinsicht mit gutem Beispiel vorangehen. Die ethische Debatte über die Erlangung leistungsfähigerer und bequemerer Modelle auf Kosten der Preisgabe personenbezogener Daten ist heute genauso weit verbreitet wie vor Jahrzehnten, als soziale Medien das Konzept der Benutzer populär machten zum Produkt werden im Austausch gegen kostenlose Dienstleistungen.

Herausgegeben von Ryan Ozawa.

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang.

Zeitstempel:

Mehr von Entschlüsseln