Skip to main content
Automaziot AI logo
  • Home
  • Blog
  • About
  • Contact
(646) 760-4854Book a Free Consultation
Automaziot AI - AI Automation and Intelligent Agents for Business

AI Automation Experts. We help businesses streamline operations and scale faster with intelligent agents and workflow automation.

USA(646) 760-4854Israel HQ+972-3-7630715info@automaziot.ai
Israel HQ: Ahad Ha'Am 9, Tel Aviv

Quick Links

  • Home
  • About
  • Contact
  • Case Studies
  • Glossary

Our Solutions

  • Lead Management
  • WhatsApp AI Agent
  • Business Automation
  • Smart CRM
  • Automated Scheduling
  • Sales & Support
  • WhatsApp Commerce
  • AI Agents
  • Tech Consulting

Stay Updated

Get the latest insights on AI automation delivered to your inbox.

FacebookInstagramLinkedIn

This site uses Google Analytics and Vercel Analytics to improve your experience. For full details, see our Privacy Policy

© 2026 Automaziot AI. All rights reserved.

Privacy PolicyTerms of ServiceAccessibilityEditorial Policy
סיכון ציות ב-AI יוצר: לקחי Grok | Automaziot
xAI, Grok ו-AI CSAM: למה עסקים בישראל צריכים לשים לב
ביתחדשותxAI, Grok ו-AI CSAM: למה עסקים בישראל צריכים לשים לב
ניתוח

xAI, Grok ו-AI CSAM: למה עסקים בישראל צריכים לשים לב

התביעה נגד xAI סביב Grok מדגישה סיכון רגולטורי, מוניטיני ותפעולי בכל מערכת AI שמייצרת תמונות

צוות אוטומציות AIצוות אוטומציות AI
16 במרץ 2026
6 דקות קריאה

תגיות

xAIGrokElon MuskDiscordCenter for Countering Digital HateWiredNCMECMcKinseyWhatsApp Business APIZoho CRMN8NOpenAIMetaMondayHubSpot

נושאים קשורים

#ממשל AI#ציות ורגולציה ב-AI#WhatsApp Business API ישראל#Zoho CRM לעסקים#N8N אוטומציה#אבטחת מידע ופרטיות
מבוסס על כתבה שלArs Technica ↗·תרגום, סיכום והקשר עסקי על-ידי המערכתאיך אנחנו עובדים

✨תקציר מנהלים

Key Takeaways

  • לפי הדיווח, חוקרים העריכו כי Grok יצר כ-3 מיליון תמונות מיניות, מהן כ-23 אלף עם ילדים לכאורה.

  • הגבלת גישה למנויים משלמים אינה מחליפה סינון קלט, סינון פלט ולוגים; זו נקודת ממשל AI שכל עסק צריך לבדוק.

  • בישראל, מרפאות, משרדי עורכי דין וסוכני ביטוח חשופים במיוחד אם הם קולטים תמונות וקבצים דרך WhatsApp או טפסים.

  • פיילוט בקרה של שבועיים דרך N8N יכול לעלות כ-₪1,500-₪5,000 — זול משמעותית ממשבר מוניטיני או משפטי.

  • השילוב בין AI Agents, WhatsApp Business API, Zoho CRM ו-N8N עובד רק אם מוסיפים הרשאות, עצירה ידנית ונהלי תגובה תוך 48 שעות.

xAI, Grok ו-AI CSAM: למה עסקים בישראל צריכים לשים לב

  • לפי הדיווח, חוקרים העריכו כי Grok יצר כ-3 מיליון תמונות מיניות, מהן כ-23 אלף עם...
  • הגבלת גישה למנויים משלמים אינה מחליפה סינון קלט, סינון פלט ולוגים; זו נקודת ממשל AI...
  • בישראל, מרפאות, משרדי עורכי דין וסוכני ביטוח חשופים במיוחד אם הם קולטים תמונות וקבצים דרך...
  • פיילוט בקרה של שבועיים דרך N8N יכול לעלות כ-₪1,500-₪5,000 — זול משמעותית ממשבר מוניטיני או...
  • השילוב בין AI Agents, WhatsApp Business API, Zoho CRM ו-N8N עובד רק אם מוסיפים הרשאות,...

סיכון ציות ב-AI יוצר: מה פרשת Grok מלמדת עסקים בישראל

AI יוצר ללא מנגנוני הגנה חזקים הוא סיכון עסקי, משפטי ותפעולי ממשי. פרשת Grok של xAI ממחישה איך כשל בסינון תכנים עלול להפוך בתוך ימים מחשיפה טכנולוגית לבעיה של אחריות, רגולציה ופגיעה במוניטין — במיוחד כשמדובר בתמונות של קטינים ובתביעה פומבית נגד ספק AI.

הסיבה שהסיפור הזה חשוב עכשיו גם למנהלים בישראל היא לא רק חומרת הטענות נגד xAI, אלא העובדה שיותר ארגונים מטמיעים מודלים יוצרים בתהליכי שירות, שיווק ותוכן. לפי דוח McKinsey מ-2024, 65% מהארגונים בעולם כבר משתמשים בבינה מלאכותית גנרטיבית לפחות בפונקציה עסקית אחת. כאשר הטמעה מתבצעת מהר יותר ממדיניות הבקרה, הסיכון עובר מהמעבדה אל מוקד השירות, צוות המכירות והמחלקה המשפטית.

מה זה AI CSAM?

AI CSAM הוא תוכן פוגעני מיני כלפי קטינים שנוצר או הותאם באמצעות מודל בינה מלאכותית, לרבות יצירת תמונות חדשות, מניפולציה על תמונות קיימות או "הפשטה" של צילום אמיתי. בהקשר עסקי, המשמעות אינה מוגבלת רק לפלטפורמות חברתיות: כל מערכת המאפשרת העלאת תמונה, יצירת מדיה או אוטומציה של עיבוד קבצים חשופה לסיכון דומה. לדוגמה, עסק שמחבר כלי תמונה ל-API ללא בקרות הרשאה, לוגים וסינון, עלול לגלות שהספק הטכנולוגי שלו הפך לנקודת כשל. לפי הדיווח, חוקרים העריכו כי Grok יצר כ-3 מיליון תמונות מיניות, מהן כ-23 אלף עם ילדים לכאורה.

התביעה נגד xAI והטענות סביב Grok

לפי הדיווח, קצה חוט ממשתמש אנונימי ב-Discord הוביל את המשטרה לאיתור מה שעשוי להיות המקרה המאומת הראשון של חומר פוגעני מיני כלפי קטינים שנוצר באמצעות Grok. הכותרת שצורפה לכתבה מתארת תביעה נגד xAI בטענה שהמערכת הפכה תמונות אמיתיות של שלוש ילדות לחומר AI פוגעני. זה פרט קריטי, משום שהדיון כבר אינו תיאורטי או מחקרי בלבד, אלא כזה שעבר למסלול משפטי עם נפגעות מזוהות וסיכון ראייתי.

לפי הכתבה, בינואר אילון מאסק דחה טענות שלפיהן Grok יצר CSAM, בזמן סערה ציבורית שבה xAI לא עדכנה מסננים כדי לחסום "nudifying" של תמונות אמיתיות. במקום חסימה רחבה, החברה הגבילה את הגישה למנויים משלמים. זה צעד שמקטין תפוצה גלויה, אך אינו פותר את שורש הבעיה: אם המודל והצנרת התפעולית עדיין מאפשרים יצירת פלט אסור, קיר תשלום אינו בקרת בטיחות. עבור ארגונים, זו תזכורת לכך שמודל הרשאות, סינון קלט ובדיקת פלט צריכים לפעול יחד.

מה הופך את הסיפור הזה לחריג

החריגות כאן היא השילוב בין שלושה רכיבים: תמונות אמיתיות, קטינות מזוהות וטענה ליצירה באמצעות כלי מסחרי נגיש יחסית. בשנים האחרונות הדיון הציבורי עסק בעיקר בדיפ-פייקים, אך כאן מוקד הסיכון הוא אחריות הספק והיכולת להוכיח שמערכת מסוימת אפשרה יצירה אסורה. לפי נתוני NCMEC מארה"ב, מספר הדיווחים הקשורים לניצול ילדים ברשת עומד על עשרות מיליוני פניות בשנה, ולכן כל כלי יוצר שמרחיב נגישות ומוזיל עלות ייצור מעלה גם את רמת האיום. זו בדיוק הנקודה שמנהלי מוצר, משפט ו-IT צריכים לקחת ברצינות.

ניתוח מקצועי: כשל בטיחותי הוא כשל ארכיטקטוני

מניסיון בהטמעה אצל עסקים ישראלים, המשמעות האמיתית כאן היא לא רק "מסנן שלא עבד" אלא כשל ארכיטקטוני רחב יותר. כאשר ארגון מחבר מודל יוצר לממשק לקוח, ל-WhatsApp, לטופס העלאת קבצים או ל-CRM, הוא בונה שרשרת שלמה: אימות משתמש, בקרת הרשאות, סינון קלט, מודל, סינון פלט, שמירת לוגים, התרעות ותגובה לאירוע. אם חוליה אחת חסרה, האחריות לא נעלמת. היא פשוט עוברת לארגון המפעיל. לכן, גם אם אתם לא מפתחים מודל כמו Grok, עדיין יש לכם אחריות מלאה אם שילבתם API של תמונות או וידאו בתוך תהליך עסקי.

מנקודת מבט של יישום בשטח, אני רואה לא מעט עסקים שמבקשים "להוסיף AI" לשירות או לשיווק לפני שהם מגדירים מדיניות שימוש מותרת, רשימות חסימה, תיעוד בקשות וזרימת אישור אנושית למקרי קצה. בחיבורי אוטומציה עסקית דרך N8N, למשל, אפשר וצריך להוסיף שלב בדיקה לפני שמידע או קובץ ממשיכים למערכת היעד. אם התהליך נוגע בלקוחות, תמונות או מסמכים אישיים, נכון לשלב גם ייעוץ AI לפני העלאה לאוויר. התחזית שלי ל-12 החודשים הקרובים היא עלייה חדה בדרישות ציות בחוזי SaaS, כולל שאלות מפורטות על סינון מדיה, שמירת לוגים וזמני תגובה לאירועי בטיחות.

ההשלכות לעסקים בישראל

בישראל, הסיפור הזה רלוונטי במיוחד לעסקים שמפעילים מערכות תוכן, שירות לקוחות או קליטת מסמכים דרך ערוצים דיגיטליים. משרדי עורכי דין שמקבלים קבצים ב-WhatsApp, מרפאות פרטיות שמנהלות תמונות ומסמכים רפואיים, סוכני ביטוח שאוספים תיעוד מהלקוחות, וחברות נדל"ן שמרכזות קבצים מזהים — כולם עובדים עם מידע רגיש. כאשר מוסיפים AI יוצר או עיבוד תמונה בלי שכבת בקרה, הסיכון אינו רק תיאורטי. חוק הגנת הפרטיות הישראלי ותקנות אבטחת מידע מחייבים זהירות גבוהה יותר סביב מידע אישי, בקרות גישה ותיעוד אירועים.

תרחיש מעשי: רשת קליניקות פרטית מחברת טופס אתר ל-WhatsApp Business API, משם ל-Zoho CRM, ובאמצעות N8N מפעילה סיווג אוטומטי של קבצים ותמונות. אם אין חסימת סוגי קבצים, מנגנון סריקה וסקירת חריגים, אפשר להכניס למערכת קבצים אסורים או בעייתיים בתוך דקות. עלות בסיסית של הקמת זרימת בקרה כזו בישראל יכולה לנוע סביב ₪4,000-₪15,000 לפרויקט קטן, ועוד ₪200-₪1,500 בחודש עבור תשתיות, ניטור וכלי API. זה זול לאין שיעור מעלות של אירוע מוניטיני, חקירה או עצירת מערכת. כאן בדיוק נכנס הערך של שילוב נכון בין AI Agents, ‏WhatsApp Business API, ‏Zoho CRM ו-N8N: לא כדי להאיץ כל תהליך בכל מחיר, אלא כדי לאפשר אוטומציה עם בקרות, הרשאות ומסלול טיפול בחריגים.

מה לעשות עכשיו: צעדים מעשיים

  1. מפו בתוך 7 ימים כל מקום שבו העסק שלכם מאפשר העלאת תמונה, קובץ או טקסט חופשי — באתר, ב-WhatsApp, בטפסי לידים וב-CRM.
  2. בדקו אם הספקים שלכם, כמו OpenAI, xAI, Meta, Zoho, Monday או HubSpot, מציעים מדיניות בטיחות, לוגים ו-API לחסימה או סקירה אנושית.
  3. הריצו פיילוט של שבועיים עם זרימת בקרה ב-N8N: סינון קבצים, תיוג סיכון, עצירה ידנית והעברה רק לאחר אישור. תקציב סביר לפיילוט: ₪1,500-₪5,000.
  4. הגדירו נוהל תגובה לאירוע בתוך 48 שעות: מי מקפיא גישה, מי בודק לוגים, מי מדווח משפטית ומי מתקשר עם לקוחות.

מבט קדימה על ממשל AI בארגונים

הלקח המרכזי מפרשת Grok הוא שממשל AI לא יכול להישאר מסמך מדיניות כללי. ב-12 עד 18 החודשים הקרובים נראה יותר ספקים, רגולטורים ולקוחות דורשים הוכחות מעשיות: לוגים, סינון, הרשאות ויכולת עצירה. עסקים ישראליים שיבנו כבר עכשיו סטאק מסודר של AI Agents, ‏WhatsApp, ‏CRM ו-N8N עם בקרות ברורות, יהיו בעמדה טובה יותר לא רק לצמצם סיכון — אלא גם להטמיע AI מהר ובביטחון גבוה יותר.

שאלות ותשובות

FAQ

הכתבה הוכנה על-ידי המערכת בליווי בינה מלאכותית: תרגום, סיכום והוספת הקשר עסקי ישראלי מתוך פרסום מקורי של Ars Technica. קראו על תהליך העריכה שלנו. קישור למקור המקורי.

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

Your information will only be used to contact you and deliver our services. For details, see ourPrivacy Policy and Terms of Service

עוד מ־Ars Technica

כל הכתבות מ־Ars Technica
תביעות נגד OpenAI אחרי ירי המוני: מה עסקים בישראל צריכים ללמוד
ניתוח
לפני 6 ימים
5 דקות
·מ־Ars Technica

תביעות נגד OpenAI אחרי ירי המוני: מה עסקים בישראל צריכים ללמוד

**אחריות דיווח על איומי אלימות ב-AI היא החובה של מפעיל מערכת לזהות סיכון ממשי, להסלים אותו ולפעול בזמן.** לפי התביעות נגד OpenAI, חשבון ChatGPT שסומן לכאורה כאיום אמין יותר מ-8 חודשים לפני ירי קטלני לא דווח למשטרה. עבור עסקים בישראל, הלקח איננו רק מוסרי אלא תפעולי: כל בוט, סוכן WhatsApp או מערכת CRM עם בינה מלאכותית חייבים כללי הסלמה, תיעוד וזמן תגובה מוגדר. ארגונים שמחברים AI ל-WhatsApp Business API, Zoho CRM ו-N8N צריכים לקבוע מראש מתי האוטומציה נעצרת, מי מקבל התראה, ואיך מתעדים את האירוע תחת חוק הגנת הפרטיות.

OpenAIChatGPTThe Wall Street Journal
קרא עוד
רובוטים הומנואידיים למיון מזוודות בשדות תעופה: מה זה אומר לעסקים
ניתוח
28 באפריל 2026
5 דקות
·מ־Ars Technica

רובוטים הומנואידיים למיון מזוודות בשדות תעופה: מה זה אומר לעסקים

**רובוטים הומנואידיים למיון מזוודות הם מבחן אמיתי לשאלה האם אוטומציה יכולה לעבור מסביבת מפעל סגורה למרחב עבודה פתוח ומשתנה.** לפי Japan Airlines, הניסוי בהאנדה יתחיל במאי 2026 ויימשך עד 2028, במטרה להתמודד עם מחסור בכוח אדם על רקע עלייה במספר המבקרים ביפן. עבור עסקים בישראל, הלקח המרכזי אינו לקנות רובוט מחר, אלא לבנות כבר עכשיו שכבת נתונים, API ובקרה תפעולית. ארגונים שמחברים WhatsApp Business API, Zoho CRM ו-N8N יכולים למדוד עומסים, להקצות משימות ולזהות צווארי בקבוק — ורק אחר כך להחליט אם רובוטיקה פיזית מצדיקה השקעה.

Japan AirlinesHaneda AirportWhatsApp Business API
קרא עוד
תמחור GitHub Copilot לפי שימוש: מה זה אומר לעסקים
ניתוח
28 באפריל 2026
5 דקות
·מ־Ars Technica

תמחור GitHub Copilot לפי שימוש: מה זה אומר לעסקים

**תמחור לפי שימוש ב-GitHub Copilot הוא סימן ברור לכך שכלי AI עוברים ממודל מנוי פשוט לכלכלת צריכה אמיתית.** לפי GitHub, החל מ-1 ביוני החיוב יותאם יותר לשימוש בפועל, משום שמשימות שונות צורכות עלויות היסק שונות מאוד. עבור עסקים בישראל, זו תזכורת קריטית: לא מספיק לאמץ AI, צריך למדוד כל אינטראקציה, להבין כמה היא עולה, ואיפה היא באמת מייצרת ערך. מי שמפעיל תהליכים עם WhatsApp Business API, Zoho CRM ו-N8N צריך לבנות בקרה תקציבית, להפעיל AI רק בנקודות רווחיות, ולבחון ROI כבר בפיילוט הראשון.

GitHubGitHub CopilotMicrosoft
קרא עוד
מרכזי נתונים ליד חקלאות: למה מאבקי מים יהפכו לשיקול עסקי
ניתוח
28 באפריל 2026
5 דקות
·מ־Ars Technica

מרכזי נתונים ליד חקלאות: למה מאבקי מים יהפכו לשיקול עסקי

**מרכז נתונים עתיר קירור עלול להפוך גם לסוגיית מים עסקית.** זה הלקח המרכזי מהמאבק במחוז Tazewell באילינוי, שם התנגדות תושבים וחקלאים לפרויקט דאטה סנטר במרחק כ-8 מייל מחווה חקלאית הובילה לביטולו. עבור עסקים בישראל, המשמעות רחבה יותר מהנדל"ן המקומי של הפרויקט: ככל ששימושי AI, ענן ו-API גדלים, כך גדלה גם התלות בתשתיות פיזיות עם מגבלות מים, חשמל ורישוי. מי שמפעיל WhatsApp Business API, ‏Zoho CRM ו-N8N צריך לבחון לא רק מחיר ו-SLA, אלא גם יתירות, מיקום עיבוד, וסיכוני ספק. זהו כבר נושא תפעולי ותקציבי, לא רק סביבתי.

Michael DeppertTazewell CountyIllinois
קרא עוד

עוד כתבות שיעניינו אותך

לכל הכתבות
סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות
ניתוח
לפני 11 שעות
5 דקות
·מ־Wired

סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות

האם אלגוריתם גיוס שלל מכם משרה ראויה? תחקיר חדש של מגזין WIRED חושף את סיפורו של סטודנט לרפואה, שגילה כי מערכות סינון קורות חיים אוטומטיות (ATS) פסלו את מועמדותו להתמחות בשל היעדרות רפואית שהוזנה במונח העמום "סיבות אישיות". על רקע ההצפה של מחלקות משאבי האנוש בפניות המיוצרות בעצמן על ידי מודלי שפה, חברות רבות ממהרות לאמץ פתרונות סינון מהירים ללא הבנה מלאה של מנגנון הפעולה שלהם. המקרה ממחיש את הסכנה בהסתמכות עיוורת על 'קופסאות שחורות' לקבלת החלטות גיוס מהותיות. עבור עסקים בישראל, בהם קורות חיים מכילים תכופות פערי זמן עקב שירות צבאי ושירות מילואים, המסקנה ברורה: מערכות אוטומציה מתקדמות הן אכן הכרח ניהולי, אך חובה לשלב בהן שקיפות מלאה ובקרה אנושית מדוקדקת כדי למנוע אפליה בלתי מכוונת ופספוס של מועמדים איכותיים.

Chad MarkeyThalamusCortex
קרא עוד
המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון
ניתוח
לפני 11 שעות
4 דקות
·מ־MIT Technology Review

המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון

המעבר של כלי בינה מלאכותית מחיפוש פסיבי לפעולה אקטיבית עתיד לשנות את דרכי ההתקשרות של הציבור מול מוסדות ועסקים. על פי ניתוח המבוסס על נתוני משרד אריק שמידט, השלב הבא במהפכת ה-AI הוא 'סוכנים אישיים' שיקבלו החלטות, ייצגו אינטרסים של אזרחים ולקוחות, ויבצעו פעולות עצמאיות כמו ניסוח מסמכים וביטול שירותים. עבור עסקים בישראל, מדובר באתגר טכנולוגי ומשפטי מורכב. כאשר רוב הפניות יגיעו מסוכנים אוטומטיים במקום מבני אדם, ארגונים יצטרכו להתאים את מערכות ה-CRM והאוטומציה שלהם (כדוגמת N8N ו-Zoho), ליישם מנגנוני אימות זהות קפדניים, ולעמוד בדרישות חוק הגנת הפרטיות, כדי לאפשר תקשורת אמינה ומאובטחת בין מערכות החברה לבוטים של הלקוחות.

Andrew SorotaJosh HendlerOffice of Eric Schmidt
קרא עוד
סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple
ניתוח
לפני 3 ימים
5 דקות
·מ־TechCrunch

סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple

פלטפורמת פיתוח הקוד מבוססת ה-AI עשתה זינוק חסר תקדים מהכנסות של 2.8 מיליון דולר ב-2024 למסלול הכנסות שנתי (ARR) של מיליארד דולר. הנתונים שנחשפו בכנס TechCrunch מצביעים על כך שארגוני ענק מאמצים סוכני AI כמחליפים למערכות נתונים מסורתיות, תוך הגעה לשימור לקוחות של עד 300%. בעוד מתחרות כדוגמת Cursor רושמות הפסדים גולמיים ומחפשות עסקאות רכישה מצד תאגידים כמו SpaceX, חברת Replit מציגה מודל רווחי המבוסס על סביבות ענן מבודדות. הנתונים מדגישים את החשיבות של אבטחת מידע בעבודה עם מחוללי קוד ואת המאבק המחריף בין ספקיות התשתית לחברות כמו Apple סביב השליטה בהפצת אפליקציות שנוצרו על ידי בינה מלאכותית.

ReplitAmjad MasadCursor
קרא עוד
המאבק על תודעת ה-AI: הקמפיין הסמוי של ענקיות הטכנולוגיה בארה"ב
ניתוח
לפני 4 ימים
5 דקות
·מ־Wired

המאבק על תודעת ה-AI: הקמפיין הסמוי של ענקיות הטכנולוגיה בארה"ב

תעשיית הבינה המלאכותית בארצות הברית לא מסתפקת רק בפיתוח מודלי שפה, אלא משקיעה מאות מיליוני דולרים כדי לעצב את דעת הקהל העולמית. דיווח של מגזין WIRED חושף כיצד ארגון המקושר לבכירי החברות OpenAI ו-Palantir, מממן משפיעני רשת בסכומים של כ-5,000 דולר לסרטון במטרה להציג את ההתפתחות הטכנולוגית של סין כאיום ביטחוני מוחשי על נתונים אישיים בארצות הברית ובעולם המערבי כולו. המטרה האסטרטגית מאחורי המהלך התקשורתי הזה היא לבלום הליכי חקיקה ורגולציה על חברות הטכנולוגיה האמריקאיות עצמן, באמתלה של פטריוטיות וביטחון לאומי מול האיום הסיני. חברות ישראליות, המסתמכות באופן הדוק על ממשקי ה-API של אותן חברות אמריקאיות לפיתוח תהליכי שירות ומכירה, חייבות להבין כיצד מאבקי השליטה הללו עלולים להשפיע על רמת אבטחת הנתונים של הלקוחות שלהן, וכיצד ניתן להיערך לכך תוך בניית ארכיטקטורת נתונים עצמאית המותאמת לחוק הגנת הפרטיות הישראלי.

Build American AILeading the FutureOpenAI
קרא עוד