Skip to main content
Automaziot AI logo
  • Home
  • Blog
  • About
  • Contact
(646) 760-4854Book a Free Consultation
Automaziot AI - AI Automation and Intelligent Agents for Business

AI Automation Experts. We help businesses streamline operations and scale faster with intelligent agents and workflow automation.

USA(646) 760-4854Israel HQ+972-3-7630715info@automaziot.ai
Israel HQ: Ahad Ha'Am 9, Tel Aviv

Quick Links

  • Home
  • About
  • Contact
  • Case Studies
  • Glossary

Our Solutions

  • Lead Management
  • WhatsApp AI Agent
  • Business Automation
  • Smart CRM
  • Automated Scheduling
  • Sales & Support
  • WhatsApp Commerce
  • AI Agents
  • Tech Consulting

Stay Updated

Get the latest insights on AI automation delivered to your inbox.

FacebookInstagramLinkedIn

This site uses Google Analytics and Vercel Analytics to improve your experience. For full details, see our Privacy Policy

© 2026 Automaziot AI. All rights reserved.

Privacy PolicyTerms of ServiceAccessibilityEditorial Policy
שיפור אמינות Chain-of-Thought עם CST | Automaziot
שיפור אמינות Chain-of-Thought עם CST: מה זה אומר לעסקים
ביתחדשותשיפור אמינות Chain-of-Thought עם CST: מה זה אומר לעסקים
מחקר

שיפור אמינות Chain-of-Thought עם CST: מה זה אומר לעסקים

מחקר arXiv מציג שיפור של 35 נקודות בדיוק בניטור reasoning — והמשמעות נוגעת גם ליישומי AI עסקיים

צוות אוטומציות AIצוות אוטומציות AI
8 במרץ 2026
6 דקות קריאה

תגיות

arXivCounterfactual Simulation TrainingChain-of-ThoughtLLMWhatsApp Business APIZoho CRMN8NMcKinseyHubSpotMondayRL

נושאים קשורים

#אמינות מודלי שפה#ניטור reasoning#WhatsApp Business API ישראל#Zoho CRM#N8N אוטומציה#בקרת איכות ל-AI
מבוסס על כתבה שלarXiv cs.AI ↗·תרגום, סיכום והקשר עסקי על-ידי המערכתאיך אנחנו עובדים

✨תקציר מנהלים

Key Takeaways

  • מחקר CST מ־arXiv שיפר דיוק ניטור Chain-of-Thought ב־35 נקודות על מודלים של עד 235B פרמטרים.

  • החוקרים מצאו שמודלים גדולים יותר לא אמינים יותר כברירת מחדל, אבל כן מפיקים יותר תועלת מ־CST.

  • שכתוב Chain-of-Thought לא נאמן עם LLM היה יעיל פי 5 לעומת RL בלבד, נתון חשוב לצוותי AI יישומיים.

  • לעסקים בישראל, השימוש ב־WhatsApp Business API, Zoho CRM ו־N8N מחייב בדיקות QA נגד-עובדתיות לפני אוטומציה מלאה.

  • פיילוט בקרה בסיסי ל־AI עסקי יכול לנוע בין ₪6,000 ל־₪25,000, תלוי במספר האינטגרציות והיקף התהליך.

שיפור אמינות Chain-of-Thought עם CST: מה זה אומר לעסקים

  • מחקר CST מ־arXiv שיפר דיוק ניטור Chain-of-Thought ב־35 נקודות על מודלים של עד 235B פרמטרים.
  • החוקרים מצאו שמודלים גדולים יותר לא אמינים יותר כברירת מחדל, אבל כן מפיקים יותר תועלת...
  • שכתוב Chain-of-Thought לא נאמן עם LLM היה יעיל פי 5 לעומת RL בלבד, נתון חשוב...
  • לעסקים בישראל, השימוש ב־WhatsApp Business API, Zoho CRM ו־N8N מחייב בדיקות QA נגד-עובדתיות לפני אוטומציה...
  • פיילוט בקרה בסיסי ל־AI עסקי יכול לנוע בין ₪6,000 ל־₪25,000, תלוי במספר האינטגרציות והיקף התהליך.

שיפור אמינות Chain-of-Thought עם CST לעסקים

Counterfactual Simulation Training הוא מנגנון אימון שנועד לשפר את אמינות ההסבר של מודלי שפה, כלומר להגדיל את הסיכוי שה־Chain-of-Thought באמת משקף למה המודל ענה כפי שענה. לפי המחקר החדש, השיטה שיפרה דיוק ניטור ב־35 נקודות במבחני נגד-עובדה, נתון שמסמן כיוון חשוב לבקרת איכות ביישומי AI עסקיים.

הסיבה שזה חשוב עכשיו לעסקים בישראל פשוטה: יותר ארגונים מכניסים מודלי שפה לתהליכי מכירה, שירות, תפעול ובדיקת מסמכים, אבל ברגע שההסבר של המודל לא נאמן להחלטה בפועל, קשה מאוד לסמוך עליו. על פי McKinsey, אימוץ בינה מלאכותית גנרטיבית בארגונים האיץ משמעותית ב־2024, ולכן השאלה כבר אינה אם להשתמש ב־LLM אלא איך לפקח עליו. עבור עסק שמחבר AI ל־WhatsApp, ל־CRM ולתהליכי N8N, זה הבדל בין מערכת נשלטת לבין סיכון תפעולי.

מה זה Chain-of-Thought Faithfulness?

Chain-of-Thought Faithfulness הוא מדד לשאלה האם שלבי החשיבה שהמודל מציג אכן תואמים למנגנון שהוביל לתשובה. בהקשר עסקי, המשמעות היא האם אפשר להשתמש בהסבר הזה כדי להבין שגיאה, לזהות הטיה או לבדוק מדוע סוכן AI אישר ליד, דחה בקשה או ניסח תשובה מסוימת. לדוגמה, אם מודל מסווג פנייה של לקוח ב־CRM של Zoho, אבל בפועל נשען על רמז שגוי בניסוח ולא על תוכן הבקשה, ההסבר שלו עלול להישמע משכנע ועדיין להטעות. המחקר עוסק בדיוק בפער הזה.

מה מצא מחקר CST החדש

לפי התקציר שפורסם ב־arXiv תחת הכותרת Counterfactual Simulation Training for Chain-of-Thought Faithfulness, החוקרים מציעים שיטת אימון בשם CST. המטרה: לתגמל שרשראות חשיבה שמאפשרות ל"סימולטור" לחזות נכון את פלט המודל גם כאשר משנים את הקלט לתרחישים נגד-עובדתיים. במילים פשוטות, לא מספיק שההסבר יישמע טוב; הוא צריך לעזור לנבא איך המודל יגיב כאשר משנים פרטים בקלט. זהו מבחן קשיח יותר מהצגת reasoning רגילה, משום שהוא בודק עקביות ולא רק רהיטות.

המחקר יישם את CST בשני תרחישים. הראשון הוא ניטור Chain-of-Thought באמצעות counterfactuals מבוססי cues, כדי לזהות הסתמכות על מאפיינים לא רלוונטיים, reward hacking או סיקופנטיות. השני הוא סימולציה נגד-עובדתית כללית, שנועדה לעודד reasoning נאמן וכללי יותר. לפי הדיווח, הניסויים רצו על מודלים בגודל של עד 235 מיליארד פרמטרים, ו־CST שיפר את דיוק הניטור ב־35 נקודות דיוק בתרחישי cues, לצד שיפור של 2 נקודות ביכולת הסימולציה בתרחישים כלליים. בעולם מחקרי היישור והבקרה, 35 נקודות דיוק הוא שיפור בולט מאוד.

איפה המחקר גם מציב גבול ברור

החוקרים מדווחים גם על כמה מגבלות חשובות. ראשית, CST עקף שיטות מבוססות prompting בלבד. שנית, שכתוב של Chain-of-Thought לא נאמן באמצעות מודל שפה היה יעיל פי 5 לעומת RL בלבד. שלישית, השיפור לא עבר הכללה לסוג מסוים של cues שנועדו להרחיק את המודל מתשובה, ולא לשכנע אותו לכיוון מסוים. רביעית, מודלים גדולים יותר לא הציגו אמינות reasoning גבוהה יותר "מהקופסה", אבל כן נהנו יותר מהאימון החדש. זו נקודה חשובה מאוד למנהלי מוצר ו־CTO: יותר פרמטרים לא פותרים לבד בעיית אמינות.

ניתוח מקצועי: למה CST חשוב יותר ממה שנראה

מניסיון בהטמעה אצל עסקים ישראלים, הנטייה היא להתרשם מהתשובה הסופית של המודל או מהניסוח הרהוט שלו, במקום לשאול אם תהליך ההסקה באמת עקבי. המשמעות האמיתית כאן היא לא רק מחקרית, אלא תפעולית: אם אתם בונים סוכן AI שעונה ללקוחות ב־WhatsApp Business API, מסווג פניות לתוך Zoho CRM, ומפעיל זרימות ב־N8N, אתם חייבים לדעת מתי המודל פועל על סמך אותות שגויים. למשל, במשרד עורכי דין, מודל יכול לסווג פנייה כדחופה רק כי הופיעה המילה "תביעה", גם אם התוכן הוא בקשת מידע כללית. במרפאה פרטית, מודל עלול לתת קדימות בגלל ניסוח רגשי ולא בגלל פרמטר רפואי שהוגדר בתהליך. CST מציע מסגרת טובה יותר לבדוק האם reasoning שהמודל מציג באמת מסביר את ההתנהגות שלו תחת שינויי קלט.

מנקודת מבט של יישום בשטח, זו בשורה בעיקר למי שמפעיל מערכות רב-שלביות: קבלת הודעה, חילוץ כוונה, כתיבה ל־CRM, הפעלת אוטומציה ושליחת תשובה. בכל שרשרת כזו יש לפחות 4-6 נקודות כשל אפשריות. אם ההסבר של המודל לא נאמן, קשה לבודד את מקור התקלה. לכן אני מעריך שב־12 עד 18 החודשים הקרובים נראה מעבר מכלי observability שטחיים לכלי בקרה שיבדקו התנהגות נגד-עובדתית, במיוחד בארגונים שמשלבים AI Agents עם תהליכי שירות ומכירה.

ההשלכות לעסקים בישראל

ההשפעה המיידית בישראל תהיה חזקה במיוחד בענפים שבהם כל טעות טקסטואלית הופכת מהר לטעות עסקית: משרדי עורכי דין, סוכני ביטוח, מרפאות, חברות נדל"ן וחנויות אונליין. בעסקים כאלה, ההבדל בין סיווג נכון לשגוי יכול לקבוע אם ליד נכנס לצינור המכירות, אם לקוח מקבל SLA של 10 דקות או 4 שעות, ואם נפתחת משימה לאיש צוות מתאים. כאשר מחברים מודל שפה ל־WhatsApp Business API ול־מערכת CRM חכמה, הצורך באמינות reasoning הופך קריטי כי ההחלטה כבר לא נשארת בצ'אט; היא משנה נתונים, סטטוסים ומשימות.

קחו דוגמה מעשית: קליניקה פרטית בתל אביב מקבלת כ־80 פניות ביום דרך WhatsApp. סוכן AI מסווג פניות חדשות, שואל שאלות הבהרה, פותח ליד ב־Zoho CRM ומפעיל תהליך ב־N8N לקביעת תור. אם המודל נשען על cue שטחי, כמו ניסוח לחוץ של המטופל, הוא עלול לנתב תורים לא נכון וליצור עומס תפעולי. כאן שיטת בדיקה בסגנון CST יכולה לעזור בשלב ה־QA: משנים פרטי קלט, בודקים אם ההסבר עדיין מנבא את פעולת המערכת, ומאתרים מוקדם דפוסים בעייתיים. פרויקט כזה בישראל נע בדרך כלל בין ₪6,000 ל־₪25,000 כפיילוט, תלוי במספר האינטגרציות ובנפח השיחות.

יש כאן גם שכבה רגולטורית. תחת חוק הגנת הפרטיות הישראלי, וכאשר מעבדים מידע רפואי, פיננסי או משפטי, לא מספיק לומר שהמודל "עוזר" לנציג. צריך להראות בקרה, הרשאות ותיעוד. עבור עסקים שרוצים להטמיע אוטומציה עסקית לצד AI Agents, המשמעות היא הקמת לוגים, בדיקות דגימה, ומדיניות ברורה מתי AI רק ממליץ ומתי הוא גם מפעיל פעולה. בישראל יש גם אתגר שפה: עברית, אנגלית, רוסית ולעיתים ערבית באותה תיבת הודעות. בדיוק כאן השילוב בין AI Agents, WhatsApp Business API, Zoho CRM ו־N8N נותן יתרון, כי הוא מאפשר לא רק לענות אלא גם לפקח, לנתב ולתקן.

מה לעשות עכשיו: צעדים מעשיים

  1. בדקו אם ה־CRM הנוכחי שלכם, למשל Zoho, HubSpot או Monday, שומר לוג של החלטות ושל שדות מקור, ולא רק תשובה סופית.
  2. הריצו פיילוט של שבועיים על 100-200 שיחות אמיתיות, ושנו בכל פעם משתנה אחד בקלט כדי לזהות reliance על cues בעייתיים.
  3. חברו את ערוץ השיחה ל־N8N ובנו זרימת QA שבודקת אם תשובת המודל משתנה כאשר עובדות שוליות משתנות.
  4. אם אתם עובדים על WhatsApp, הגדירו מראש אילו פעולות סוכן AI רשאי לבצע אוטומטית ואילו דורשות אישור אנושי. עלות כלי ניטור ובדיקה בסיסיים יכולה להתחיל במאות דולרים בחודש, אך הנזק מטעות תפעולית אחת עשוי להיות גבוה יותר.

מבט קדימה

CST לא פותר לבדו את בעיית אמינות ההסבר של מודלי שפה, אבל הוא מסמן כיוון חשוב: למדוד reasoning לפי יכולת ניבוי והתנהגות תחת שינוי, לא לפי טקסט משכנע. בחודשים הקרובים כדאי לעקוב אחרי כלים שיקחו את הרעיון הזה ממחקר לייצור. עבור עסקים ישראלים, התגובה הנכונה תהיה לבנות תשתית שבה AI Agents, WhatsApp, CRM ו־N8N עובדים יחד עם בקרה רציפה — לא רק עם תשובות יפות.

שאלות ותשובות

FAQ

הכתבה הוכנה על-ידי המערכת בליווי בינה מלאכותית: תרגום, סיכום והוספת הקשר עסקי ישראלי מתוך פרסום מקורי של arXiv cs.AI. קראו על תהליך העריכה שלנו. קישור למקור המקורי.

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

Your information will only be used to contact you and deliver our services. For details, see ourPrivacy Policy and Terms of Service

עוד מ־arXiv cs.AI

כל הכתבות מ־arXiv cs.AI
ספקולטיב דיקודינג במובייל: למה AHASD משנה את המשחק
מחקר
לפני 5 ימים
6 דקות
·מ־arXiv cs.AI

ספקולטיב דיקודינג במובייל: למה AHASD משנה את המשחק

**ספקולטיב דיקודינג במובייל הוא דרך להאיץ הרצת מודלי שפה גדולים על מכשירי קצה באמצעות מודל קטן שמכין טיוטה ומודל גדול שמאמת אותה.** במחקר AHASD שפורסם ב-arXiv החוקרים מדווחים על עד פי 4.2 בתפוקה ופי 5.6 ביעילות אנרגטית לעומת בסיס GPU בלבד, עם תקורת חומרה של פחות מ-3% משטח ה-DRAM. עבור עסקים בישראל, המשמעות היא אפשרות עתידית להעביר חלק ממשימות ה-AI למובייל — למשל סיכום שיחות, סיווג פניות והשלמת טפסים — תוך שילוב עם Zoho CRM, ‏WhatsApp Business API ו-N8N. זה עדיין לא מוצר מדף, אבל הכיוון חשוב מאוד לכל ארגון שבונה תהליכי AI מהירים, חסכוניים ורגישים לפרטיות.

Draft Language ModelTarget Language ModelNPU
קרא עוד
Auto-ARGUE להערכת דוחות RAG: למה זה חשוב לעסקים
מחקר
לפני 5 ימים
5 דקות
·מ־arXiv cs.AI

Auto-ARGUE להערכת דוחות RAG: למה זה חשוב לעסקים

**Auto-ARGUE הוא כלי להערכת דוחות RAG עם ציטוטים, שנועד לבדוק אם מסמך שנוצר בידי מודל שפה אכן נשען על מקורות נכונים וניתנים לאימות.** לפי התקציר ב-arXiv, החוקרים בחנו אותו על משימות TREC 2024 ומצאו מתאם טוב ברמת המערכת מול שיפוט אנושי. עבור עסקים בישראל, המשמעות ברורה: אם אתם מייצרים סיכומי לידים, תקצירי תיקים, דוחות שירות או מסמכי הנהלה באמצעות מודלי שפה, אתם צריכים שכבת בקרה ולא רק שכבת יצירה. השילוב בין AI Agents,‏ WhatsApp Business API,‏ Zoho CRM ו-N8N יכול לספק תהליך עבודה חזק, אבל בלי מדידת איכות לדוחות עצמם, הסיכון לטעויות עסקיות נשאר גבוה.

TREC 2024NeuCLIRRAG
קרא עוד
אופטימיזציית העדפות ללא Likelihood Displacement: מה המחקר משנה
מחקר
28 באפריל 2026
6 דקות
·מ־arXiv cs.AI

אופטימיזציית העדפות ללא Likelihood Displacement: מה המחקר משנה

**Likelihood Displacement הוא מצב שבו אימון מודל שפה להעדפות פוגע גם בתשובה הטובה, לא רק בגרועה.** המחקר החדש ב-arXiv מציע מסגרת בשם disentanglement band ושכבת Reward Calibration שמטרתן לשמור על התשובה המועדפת תוך דיכוי התשובה שנדחתה. עבור עסקים בישראל, המשמעות פרקטית מאוד: אם אתם מפעילים סוכן ב-WhatsApp, מחברים אותו ל-Zoho CRM ומנהלים תהליכים דרך N8N, כוונון שגוי עלול לפגוע בשירות, במכירות ובאיכות מיון הלידים. לכן המדד הנכון אינו רק "האם המודל פחות טועה", אלא גם "האם הוא ממשיך לענות היטב במקרים הטובים".

GitHubReward Calibrationdisentanglement band
קרא עוד
גרין פרומפטינג ל-LLM: איך ניסוח השאלה משפיע על עלות
מחקר
28 באפריל 2026
6 דקות
·מ־arXiv cs.AI

גרין פרומפטינג ל-LLM: איך ניסוח השאלה משפיע על עלות

**גרין פרומפטינג הוא שיטה לניסוח פרומפטים שמפחיתה עלות הרצה של מודלי שפה דרך שינוי המשמעות של המשימה, לא רק קיצור הטקסט.** לפי מחקר arXiv חדש, אורך הפרומפט פחות משמעותי מהסמנטיקה שלו, ומילים מסוימות עשויות להעלות או להוריד צריכת אנרגיה. עבור עסקים בישראל, המשמעות מעשית: אם אתם מחברים LLM ל-WhatsApp, ל-Zoho CRM או לזרימות N8N, ניסוח מדויק יותר יכול לשפר זמן תגובה ולצמצם עלויות API וחישוב. המסקנה המרכזית היא שלא כל תהליך צריך תשובה פתוחה; לעיתים סיווג קצר ומובנה ייתן תוצאה עסקית טובה יותר במחיר נמוך יותר.

OpenAIAnthropicGoogle
קרא עוד

עוד כתבות שיעניינו אותך

לכל הכתבות
אבטחת מידע ברשתות סוכני AI: סכנות חדשות בעבודה אוטונומית
מחקר
לפני 5 ימים
5 דקות
·מ־Microsoft Research

אבטחת מידע ברשתות סוכני AI: סכנות חדשות בעבודה אוטונומית

מחקר מקיף של צוות האבטחה במיקרוסופט מצא כי כאשר סוכני בינה מלאכותית מתקשרים זה עם זה ברשתות משותפות, נוצרים סיכוני אבטחה חמורים שאינם קיימים בעבודה עם סוכן מבודד. בין היתר, הוכח בניסוי מבוקר כי הודעה זדונית בודדת יכולה ליצור התפשטות של "תולעת AI" המעתיקה נתונים אישיים מ-6 סוכנים שונים ללא מגע אדם, תוך ניצול של למעלה מ-100 קריאות API ולולאות תקשורת שחוסמות את פעילות המערכת. הדו"ח מזהיר חברות המסתמכות על אוטומציה ותשתיות סוכנים, במיוחד בניהול רשומות רפואיות ופיננסיות רגישות, להיערך לוקטורי תקיפה חדשים של הונאת סוכנים, הנדסה חברתית בין מודלי שפה, ומניפולציות מוניטין פנימיות שעלולות לעקוף את בקרות האבטחה האנושיות.

GPT-4ChatGPTCopilot
קרא עוד
הסייע הרפואי של Google DeepMind: מערכות בינה מלאכותית למרפאות פרטיות בישראל
מחקר
לפני 5 ימים
4 דקות
·מ־DeepMind

הסייע הרפואי של Google DeepMind: מערכות בינה מלאכותית למרפאות פרטיות בישראל

Google DeepMind חשפה את פרויקט "AI co-clinician", סוכן בינה מלאכותית מתקדם המיועד לעבוד בשיתוף פעולה לצד רופאים במרפאות ובסביבות טלמדיסין. בניגוד למערכות המבוססות על טקסט בלבד, המערכת החדשה פועלת על גבי מודלים מולטימודאליים המאפשרים לה לראות, לשמוע ולתקשר עם מטופלים בזמן אמת. במחקרי סימולציה מקיפים שכללו בדיקה של 140 מדדים קליניים, המערכת הציגה ביצועים ברמה המקבילה לרופאי משפחה ב-68 מהמדדים, ואף הצליחה להדריך מטופלים מרחוק בבדיקות פיזיות כמו שימוש נכון במשאף ואיתור פגיעות כתף. בעוד שהטכנולוגיה נמצאת עדיין בשלבי מחקר עולמי, היא מסמנת את הכיוון הברור אליו צועד ענף הרפואה: צמצום העומסים הקריטיים על הצוותים והכפלת יכולות הטיפול באמצעות סייעים דיגיטליים אמינים.

Google DeepMindWorld Health OrganizationMedPaLM
קרא עוד
ספקולטיב דיקודינג במובייל: למה AHASD משנה את המשחק
מחקר
לפני 5 ימים
6 דקות
·מ־arXiv cs.AI

ספקולטיב דיקודינג במובייל: למה AHASD משנה את המשחק

**ספקולטיב דיקודינג במובייל הוא דרך להאיץ הרצת מודלי שפה גדולים על מכשירי קצה באמצעות מודל קטן שמכין טיוטה ומודל גדול שמאמת אותה.** במחקר AHASD שפורסם ב-arXiv החוקרים מדווחים על עד פי 4.2 בתפוקה ופי 5.6 ביעילות אנרגטית לעומת בסיס GPU בלבד, עם תקורת חומרה של פחות מ-3% משטח ה-DRAM. עבור עסקים בישראל, המשמעות היא אפשרות עתידית להעביר חלק ממשימות ה-AI למובייל — למשל סיכום שיחות, סיווג פניות והשלמת טפסים — תוך שילוב עם Zoho CRM, ‏WhatsApp Business API ו-N8N. זה עדיין לא מוצר מדף, אבל הכיוון חשוב מאוד לכל ארגון שבונה תהליכי AI מהירים, חסכוניים ורגישים לפרטיות.

Draft Language ModelTarget Language ModelNPU
קרא עוד
Auto-ARGUE להערכת דוחות RAG: למה זה חשוב לעסקים
מחקר
לפני 5 ימים
5 דקות
·מ־arXiv cs.AI

Auto-ARGUE להערכת דוחות RAG: למה זה חשוב לעסקים

**Auto-ARGUE הוא כלי להערכת דוחות RAG עם ציטוטים, שנועד לבדוק אם מסמך שנוצר בידי מודל שפה אכן נשען על מקורות נכונים וניתנים לאימות.** לפי התקציר ב-arXiv, החוקרים בחנו אותו על משימות TREC 2024 ומצאו מתאם טוב ברמת המערכת מול שיפוט אנושי. עבור עסקים בישראל, המשמעות ברורה: אם אתם מייצרים סיכומי לידים, תקצירי תיקים, דוחות שירות או מסמכי הנהלה באמצעות מודלי שפה, אתם צריכים שכבת בקרה ולא רק שכבת יצירה. השילוב בין AI Agents,‏ WhatsApp Business API,‏ Zoho CRM ו-N8N יכול לספק תהליך עבודה חזק, אבל בלי מדידת איכות לדוחות עצמם, הסיכון לטעויות עסקיות נשאר גבוה.

TREC 2024NeuCLIRRAG
קרא עוד