מחקר מצא שבערך 1 מכל 4 אמריקאים משתמשים כעת במודלים של בינה מלאכותית יוצרת כחלופות למנועי חיפוש מסורתיים.
מעניין האם תוצאות החיפוש בכלים אלה מהימנות
במחקר שנערך לאחרונה חוקרים הריצו 1,600 שאילתות בשמונת כלי חיפוש גנרטיביים שונים.
המחקר שפורסם לאחרונה מצא שמנועי חיפוש בינה מלאכותית מצטטים מקורות חדשותיים שגויים בשיעור מדאיג של 60%
שיעורי שגיאות הציטוט השתנו במיוחד בין הפלטפורמות שנבדקו. Perplexity ענה בצורה שגויה על 37 אחוז מהשאילתות שנבדקו , בעוד ש-ChatGPT Search זיהה באופן שגוי 67 אחוז (134 מתוך 200) מהשאילתות . ב- Grok 3 נמצא שיעור השגיאות הגבוה ביותר-94 אחוז.
עוד ממצאי המחקר – מגמה נפוצה בקרב מודלים אלה של AI: במקום לסרב להגיב כאשר חסר להם מידע אמין, המודלים סיפקו לעתים קרובות תשובות סבירות אך שגויות או ספקולטיביות – המכונה טכנית קונפלבולציות. החוקרים הדגישו שהתנהגות זו הייתה עקבית בכל המודלים שנבדקו, ולא מוגבלת לכלי אחד בלבד.
למרבה ההפתעה, גרסאות פרימיום בתשלום של כלי חיפוש בינה מלאכותית אלה הצליחו אפילו גרוע יותר במובנים מסוימים. הסבר אפשרי לכך הוא שלמרות שדגמי הפרימיום הללו ענו נכון על מספר גבוה יותר של הנחיות, חוסר הרצון שלהם לדחות תגובות לא ודאיות הוביל לשיעורי שגיאה כלליים גבוהים יותר.
ממצאים אלה ורבים נוספים מוצגים בפרוט בדוח המחקר
למחקר
https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php

לשמחתי מזמן עליתי על התופעה הזו, ולכן מאזר כל "פרומט" [שאילתא] שאני מעלה, אני מבקש מקורות. אז אני ניגש למקורות ובודק.
הרבה פעמים אני מריץ את המקורות בגוגל, והרבה פעמים אני מחפש בגוגל תוצאה לאותה השאילתא.
וכן יש להדגיש, שה- AI/ב"מ נוטה לענות עפ"י זיהוי שלו את "אופי השואל". ככל שזה מוזר, אבל ממש לא, הוא מזהה היטב מגמות פוליטיות, דיעות קדומות, העדפות שונות.
תמיד חייבים להיות בעלי חשיבה ביקורתית הרבה יותר חריפה מ"הרגילה", שלצערי, רבים רבים לא משתמשים בה כלל. 😦
אהבתיאהבתי