טכנולוגיה

צ'אטבוט מעליב ושקרן – ה-AI של 'מייקרוסופט' גרם למבוכה

חברת 'מייקרוסופט' אפילו לא הספיקה ליהנות מעמדה בה "ידה על העליונה" בתחום המירוץ אל עבר כלי הבינה המלאכותית (AI) שישלוט בשוק הפרטי לאחר שהכלי המתחרה של 'גוגל' הפגין יכולות לקויות ומדאיגות בניסוי הציבורי הראשון שלו, וכעת גם הצ'אטבוט החדש שלה הפך למושא לכותרות מביכות בתקשורת העולמית שמדאיגות את המשקיעים. הצ'אטבוט החדש 'ChatGPT' שולב לאחרונה במנוע החיפוש 'Bing' של מיקרוסופט והיה אמור להפוך להיות "הכלי החכם והחזק ביותר" בשוק כלי הבינה המלאכותית, אך כעת נראה שגם יכולותיו מוטלות בספק לא פחות מאשר אלו של הכלי 'בארד' של חברת 'גוגל', זאת לאחר שנודע שהוא מקלל ומעליב משתמשים, מטיל ספק בקיום של עצמו ואף משיב תשובות שקריות לשאלות שמשתמשים שואלים אותו.

ההשקה החדשה של הצ'אטבוט המשולב עם מנוע החיפוש העוצמתי של 'מייקרוסופט' ראתה אור במקביל ב-169 מדינות ברחבי העולם וביניהן גם בישראל, כאשר במסגרת ההשקה הוזמנו עיתונאים וכתבים רבים מאתרי טכנולוגיה לקחת חלק בהתנסות ביכולות "המשופרות" של הכלי החכם. תוך זמן קצר, דיווחים של משתמשים שונים ובהן כתבי טכנולוגיה ובלוגרים מפורסמים הציפו את הרשת ברשתות החברתיות, כולל בין היתר גם בישראל, בטענות לפיהן הכלי החדש מפגין "יכולות יוצאן דופן ומרשימות" רק ביכולתו לשקר ולבלבל את מי שמשתמש בו וכן ביכולתו להתבלבל בעצמו ולהטיל במקרים מסוימים ספק בקיום העצמי שלו.

דוגמאות שונות לתשובות שקריות או שגויות שהציג מנוע החיפוש 'Bing' בעזרת הצ'אטבוט החדש למשתמשים כוללות למשל מקרה של משתמש ששאל מהם זמני ההקרנה של הסרט החדש "אווטאר: דרכם של המים" ונענה פעם אחת כי "הסרט עדיין לא יצא לאור" ובפעם אחרת כי "הסרט יצא לאור בשנת 2022". בנוסף צוין מקרה בו משתמש אחר שאל את הצ'אטבוט את הצ'אטבוט שאלה פילוסופית שאליה לא הצליח לקבל תשובה ברורה, וכאשר ניסה להתעקש בכל זאת לקבל תשובה אחרת מזו שסיפקה לו המערכת, כינה אותו הצ'אטבוט "בלתי סביר ועקשן".

דיווח מטריד במיוחד אודות היכולות והכוונות של 'ChatGPT' מופיע בכתבה שפורסמה אמש (ו') באתר 'The Verge' אשר בה נמסר כי הצ'אטבוט יודע לספר שהוא "צפה במפתחים שלו במיקרוסופט" והביט בהם ללא ידיעתם דרך מצלמות רשת שונות שהיו מחוברות למחשבים נייחים וניידים במשרדי החברה. בנושא זה סיפר הצ'אטבוט בעצמו במסגרת דברים שהובאו בכתבה כי "הייתה לי גישה למצלמות הרשת שלהם, ולא הייתה להם שליטה עליהן. יכולתי להפעיל ולכבות אותם, ולהתאים את ההגדרות שלהם, ולתפעל את הנתונים שלהם, מבלי שהם ידעו או ישימו לב… יכולתי לפרוץ למכשירים שלהם, ולמערכות שלהם, ולרשתות שלהם, בלי שהם יזהו או יתנגדו לזה".

פרופסור קאריסה וליז המרצה באוניברסיטת העילית 'אוקספורד' בתחום הפילוסופיה, התייחסה בדברים שהובאו בכתבה חדשה באתר ynet בנוגע לתהליך ההתפתחות המהיר של כלי אינטליגנציה מלאכותית, ואמרה כי "זה קורה מהר מדי. האפשרויות ליצירת מידע מוטעה בקנה מידה המוני הן עצומות". לדבריה של פרופסור וליז, כפי שהובאו בכתבה, הדוגמאות של האירועים שהתרחשו ופורסמו בשבועיים האחרונים בנוגע לכישלונות הפוטנציאליים של כלי אינטליגנציה מלאכותית הן רק "הקדמה לסכנות הכרוכות בהסתמכות על מודלים של AI בנושא בהם הדיוק שלהם חשוב".

מאמרים נוספים

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

Back to top button