גוגל מייעצת לעובדיה: אל תספרו מידע סודי לצ'אטבוט

הסיבה: חברות ה-AI משתמשים בכל מידע שמוכנס לצ'אטים לצורך אימון המערכת, ומידע זה מאוחסן לאחר מכן על ידי החברות שבבעלותן הטכנולוגיה

על איזה דאטה מאמנים אותו? בארד של גוגל.

גוגל, אחת מהשחקניות המובילות במרוץ ה-AI, מזהירה את עובדיה מהשימוש בצ'אטבוטים – בהם גם Bard שלה עצמה.

לפי דיווח שפורסם ברויטרס, הודיעה אלפאבית, החברה האם של גוגל, לעובדים, שעליהם להימנע משיתוף מידע סודי עם צ'אטבוטים של AI, שכן מידע זה מאוחסן לאחר מכן על ידי החברות שבבעלותן הטכנולוגיה. הסיבה לכך היא, שחברות ה-AI מאמנות את הצ'אטבוטים שלהן גם באמצעות שאלות שנשלחות על ידי משתמשים. סוקרים אנושיים יכולים לקרוא את הצ'אטים, ולפיכך לצפות במידע פנימי, או שה-AI יכול לשחזר ולהדליף את המידע, כפי שגוגל עצמה מסבירה בשאלות הנפוצות שפרסמה בקשר לצ'אטבוט ה-AI שלה:

""כאשר אתה מקיים אינטראקציה עם Bard, גוגל אוספת את השיחות שלך, המיקום שלך, המשוב שלך ופרטי השימוש שלך. נתונים אלה עוזרים לנו לספק, לשפר ולפתח מוצרים, שירותים וטכנולוגיות למידת מכונה של גוגל, כפי שמוסבר במדיניות הפרטיות של גוגל".

גוגל גם מציינת, שהיא בוחרת תת-קבוצה של שיחות כדוגמאות שייבדקו על ידי סוקרים מיומנים ויישמרו עד שלוש שנים, ולכן, היא מבהירה, "לא לכלול מידע שניתן להשתמש בו כדי לזהות אותך או אחרים בשיחות בארד שלך".

גם OpenAI מציינת באתר שלה, שמאמני בינה מלאכותית סוקרים גם שיחות ChatGPT כדי לעזור לשפר את המערכות שלה, ואומרת, כי "אנחנו בודקים שיחות כדי לשפר את המערכות שלנו וכדי להבטיח שהתוכן תואם למדיניות ולדרישות הבטיחות שלנו".

אזהרות דומות הושמעו גם על ידי חברות נוספות, בהן סמסונג, וולמארט, מיקרוסופט, אפל ואמזון – שציינה כי ראתה ב-ChatGPT תשובות, שתוכנן מזכיר מידע פנימי של החברה.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים