אנתרופיקה אומרת שהיא לא תשתמש בנתונים הפרטיים שלך כדי לאמן את הבינה המלאכותית שלה - פענוח

אנתרופיקה אומרת שהיא לא תשתמש בנתונים הפרטיים שלך כדי לאמן את הבינה המלאכותית שלה - פענוח

אנתרופיקה אומרת שהיא לא תשתמש בנתונים הפרטיים שלך כדי לאמן את הבינה המלאכותית שלה - פענוח אינטליגנציה של PlatoBlockchain. חיפוש אנכי. איי.

הסטארט-אפ המוביל בינה מלאכותית, Anthropic, הכריזה כי לא תשתמש בנתונים של לקוחותיה כדי להכשיר את מודל השפה הגדול שלה (LLM), וכי היא תתערב כדי להגן על משתמשים שיתמודדו עם תביעות זכויות יוצרים.

Anthropic, שהוקמה על ידי חוקרים לשעבר מ-OpenAI, עדכנה את הפרסומת שלה תנאי שימוש באתר לפרט את האידיאלים והכוונות שלה. על ידי הוצאת הנתונים הפרטיים של הלקוחות שלה, אנתרופיק מבדילה את עצמה באופן מוצק מיריבות כמו OpenAI, Amazon ומטה, שאכן ממנפות תוכן משתמשים כדי לשפר את המערכות שלהן.

"אסור לאנתרופיק להכשיר דגמים על תוכן לקוחות משירותים בתשלום", על פי התנאים המעודכנים, שמוסיפים כי "כמו בין הצדדים ובמידה המותרת על פי החוק החל, אנתרופיק מסכימה שהלקוח הוא הבעלים של כל התפוקות, ומתנערת מכל זכויות שהיא מקבל ללקוח תוכן לפי תנאים אלה."

התנאים ממשיכים ואומרים כי "אנתרופיק אינה צופה קבלת זכויות כלשהן בתוכן הלקוח לפי תנאים אלה" וכי הם "אינם מעניקים לאף אחד מהצדדים זכויות כלשהן לתוכן או לקניין הרוחני של האחר, במשתמע או בכל דרך אחרת".

המסמך המשפטי המעודכן מספק לכאורה הגנות ושקיפות ללקוחות המסחריים של אנתרופיק. חברות מחזיקות בכל תפוקות הבינה המלאכותית שנוצרות, למשל, כדי למנוע מחלוקות פוטנציאליות על IP. Anthropic גם מתחייבת להגן על לקוחות מפני תביעות זכויות יוצרים על כל תוכן המפר זכויות שמיוצר על ידי קלוד.

המדיניות תואמת המשימה של אנתרופי הצהרה שבינה מלאכותית צריכה להיות מועילה, לא מזיקה וישרה. ככל שהספקנות הציבורית גוברת לגבי האתיקה של בינה מלאכותית גנרטיבית, המחויבות של החברה לטפל בחששות כמו פרטיות נתונים יכולה לתת לה יתרון תחרותי.

נתוני משתמשים: מזון חיוני של LLMs

דגמי שפה גדולים (LLMs) כמו GPT-4, LlaMa או קלוד של Anthropic הם מערכות בינה מלאכותית מתקדמות שמבינות ומייצרות שפה אנושית על ידי הכשרה על נתוני טקסט נרחבים. מודלים אלה ממנפים טכניקות למידה עמוקה ורשתות עצביות כדי לחזות רצפי מילים, להבין את ההקשר ולתפוס את דקויות השפה. במהלך האימון, הם משכללים ללא הרף את התחזיות שלהם, משפרים את יכולתם לשוחח, לחבר טקסט או לספק מידע רלוונטי. האפקטיביות של LLMs תלויה במידה רבה במגוון ובנפח הנתונים עליהם הם מאומנים, מה שהופך אותם למדויקים יותר ומודעים יותר מבחינה הקשרית כשהם לומדים מדפוסי שפה, סגנונות שונים ומידע חדש.

וזו הסיבה שהנתונים של המשתמשים הם בעלי ערך כה רב בהכשרת אנשי LLM. ראשית, זה מבטיח שהמודלים יישארו מעודכנים עם המגמות הלשוניות האחרונות והעדפות המשתמשים (למשל, הבנת סלנגים חדשים). שנית, היא מאפשרת התאמה אישית ומעורבות טובה יותר של משתמשים על ידי התאמה לאינטראקציות וסגנונות של משתמש בודדים. עם זאת, זה יוצר ויכוח אתי מכיוון שחברות בינה מלאכותית אינן משלמות למשתמשים עבור מידע חיוני זה המשמש להכשרת מודלים שמכניסים להם מיליוני דולרים.

כפי שדווח על ידי פענוח, מטא נחשף לאחרונה שהיא מכשירה את LlaMA-3 LLM הקרובה שלה בהתבסס על נתוני המשתמשים ודגמי ה-EMU החדשים שלה (שיוצרים תמונות וסרטונים מהודעות טקסט) הוכשרו גם הם באמצעות נתונים זמינים לציבור שהועלו על ידי המשתמשים שלה במדיה החברתית.

חוץ מזה, אמזון גם חשפה כי ה-LLM הקרוב שלה, שיפעיל גרסה משודרגת של Alexa, עובר הכשרה גם על שיחות ואינטראקציות של משתמשים, עם זאת, משתמשים יכולים לבטל את הסכמתם לנתוני האימון, אשר כברירת מחדל מוגדרים בהנחה שהמשתמשים מסכימים כדי לשתף את המידע הזה. "[אמזון] תמיד האמינה שאימון אלקסה עם בקשות מהעולם האמיתי הוא חיוני כדי לספק ללקוחות חוויה מדויקת ומותאמת אישית ומשתפרת כל הזמן", דובר אמזון אמר לי פענוח. "אבל במקביל, אנחנו נותנים ללקוחות שליטה אם משתמשים בהקלטות הקול של Alexa כדי לשפר את השירות, ואנחנו תמיד מכבדים את העדפות הלקוחות שלנו כשאנחנו מאמנים את הדגמים שלנו."

עם ענקיות הטכנולוגיה שרוצים לשחרר את שירותי הבינה המלאכותית המתקדמים ביותר, שיטות מידע אחראיות הן המפתח לזכייה באמון הציבור. אנתרופיקה שואפת להוביל דוגמה בהקשר זה. הוויכוח האתי על השגת מודלים חזקים ונוחים יותר על חשבון מסירת מידע אישי נפוץ היום כפי שהיה לפני עשרות שנים כאשר המדיה החברתית הפכה לפופולרית את מושג המשתמשים הופכים למוצר בתמורה לשירותים בחינם.

נערך על ידי ריאן אוזאווה.

הישאר מעודכן בחדשות הקריפטו, קבל עדכונים יומיים בתיבת הדואר הנכנס שלך.

בול זמן:

עוד מ פענוח