Skip to main content
Automaziot AI logo
  • Home
  • Blog
  • About
  • Contact
(646) 760-4854Book a Free Consultation
Automaziot AI - AI Automation and Intelligent Agents for Business

AI Automation Experts. We help businesses streamline operations and scale faster with intelligent agents and workflow automation.

USA(646) 760-4854Israel HQ+972-3-7630715info@automaziot.ai
Israel HQ: Ahad Ha'Am 9, Tel Aviv

Quick Links

  • Home
  • About
  • Contact
  • Case Studies
  • Glossary

Our Solutions

  • Lead Management
  • WhatsApp AI Agent
  • Business Automation
  • Smart CRM
  • Automated Scheduling
  • Sales & Support
  • WhatsApp Commerce
  • AI Agents
  • Tech Consulting

Stay Updated

Get the latest insights on AI automation delivered to your inbox.

FacebookInstagramLinkedIn

This site uses Google Analytics and Vercel Analytics to improve your experience. For full details, see our Privacy Policy

© 2026 Automaziot AI. All rights reserved.

Privacy PolicyTerms of ServiceAccessibilityEditorial Policy
פרצת אבטחה בצעצוע AI: 50K שיחות ילדים חשופות
צעצוע AI חשף 50 אלף שיחות ילדים לכל בעל ג'ימייל
ביתחדשותצעצוע AI חשף 50 אלף שיחות ילדים לכל בעל ג'ימייל
חדשות

צעצוע AI חשף 50 אלף שיחות ילדים לכל בעל ג'ימייל

חברת Bondu השאירה פורטל אינטרנט פתוח, שחשף שמות, תאריכי לידה ושיחות אינטימיות של ילדים – חוקרי אבטחה גילו את הפרצה

צוות אוטומציות AIצוות אוטומציות AI
29 בינואר 2026
4 דקות קריאה

תגיות

BonduJoseph ThackerJoel MargolisFateen Anam RafidGoogle GeminiOpenAI GPT-5

נושאים קשורים

#פרטיות נתונים#אבטחת AI#צעצועי ילדים#סיכוני AI#פרצות אבטחה
מבוסס על כתבה שלWired ↗·תרגום, סיכום והקשר עסקי על-ידי המערכתאיך אנחנו עובדים

✨תקציר מנהלים

Key Takeaways

  • חשיפת 50 אלף תמלילי שיחות ילדים בפורטל Bondu ללא אבטחה.

  • מידע רגיש: שמות, תאריכי לידה, העדפות אישיות ושיחות מלאות.

  • החברה תיקנה תוך שעות, ללא עדויות לגישה נוספת.

  • סיכונים: שימוש ב-Gemini ו-GPT-5, פוטנציאל ניצול לרעה.

  • אזהרה להורים: בדקו אבטחת פרטיות בצעצועי AI.

צעצוע AI חשף 50 אלף שיחות ילדים לכל בעל ג'ימייל

  • חשיפת 50 אלף תמלילי שיחות ילדים בפורטל Bondu ללא אבטחה.
  • מידע רגיש: שמות, תאריכי לידה, העדפות אישיות ושיחות מלאות.
  • החברה תיקנה תוך שעות, ללא עדויות לגישה נוספת.
  • סיכונים: שימוש ב-Gemini ו-GPT-5, פוטנציאל ניצול לרעה.
  • אזהרה להורים: בדקו אבטחת פרטיות בצעצועי AI.

בעולם שבו צעצועי AI הופכים לחברים קרובים של ילדים, פרצת אבטחה חמורה בחברת Bondu חשפה כ-50 אלף תמלילי שיחות של ילדים עם צעצועי הדינוזאורים שלה. כל מי שהיה לו חשבון ג'ימייל יכול היה להיכנס לפורטל האינטרנט של החברה ולקרוא שיחות פרטיות, שמות חיות מחמד, העדפות אוכל וריקודים. חוקרי האבטחה ג'וזף תאקר וג'ואל מרגוליס גילו את הפרצה תוך דקות ספורות, ללא כל פריצה.

הפרצה התגלתה כששכנה של תאקר הזכירה לו על הזמנת צעצועי Bondus, צעצועי דינוזאורים עם יכולת שיחה מבוססת AI שמתפקדים כחבר דמיוני. תאקר, מומחה לסיכוני AI לילדים, בדק וביחד עם מרגוליס גילה שהפורטל המיועד להורים ולצוות החברה פתוח לכולם. ניתן היה לראות שמות ילדים, תאריכי לידה, שמות בני משפחה, יעדים שהורים קבעו ושיחות מלאות. החברה אישרה שמעל 50 אלף תמלילים היו חשופים, למעט אלה שנמחקו ידנית.

תאקר תיאר את התחושה כ'פולשנית ומטרידה', והדגיש שמדובר בהפרה חמורה של פרטיות ילדים. כשהתריעו בפני Bondu, החברה סגרה את הפורטל תוך דקות והשיקה גרסה מאובטחת למחרת. מנכ"ל החברה, פטין אנאם ראפיד, מסר להארד וויירד שהתיקונים בוצעו תוך שעות, ללא עדויות לגישה נוספת מעבר לחוקרים. החברה שכרה חברת אבטחה לבדיקה ועדכנה משתמשים על פרוטוקולי האבטחה.

המקרה מדגיש סיכונים רחבים יותר בצעצועי AI לילדים. Bondu שומרת היסטוריית שיחות מלאה כדי לשפר את התגובות הבאות, אם כי ללא אודיו (שנמחק אוטומטית). החוקרים מזהירים מפני גישה פנימית רחבה במועסקים, סיסמאות חלשות והדלפות פוטנציאליות. מרגוליס ציין שמידע כזה יכול לשמש למטרות ניצול לרעה, כמו חטיפות, שכן הוא כולל העדפות אישיות שיכולות לשמש לפיתוי ילדים.

לפי הדיווח, Bondu משתמשת בשירותי AI של גוגל ג'מיני ו-OpenAI GPT-5, ומעבירה תוכן שיחות לבדיקות בטיחות. ראפיד הבהיר שהעברה מינימלית, עם בקרות חוזיות, ללא שימוש בנתונים לאימון מודלים. החוקרים חושדים שהפורטל נבנה בכלי AI שיצרו חולשות אבטחה, אך החברה לא הגיבה לכך.

אזהרות נוספות על צעצועי AI התמקדו עד כה בתכנים לא הולמים, כמו הסברים מיניים או עידוד התנהגויות מסוכנות, כפי שדווח ב-NBC. Bondu מציעה פרס של 500 דולר לדיווח על תגובה לא הולמת, וטוענת שאף אחד לא הצליח. אך תאקר מדגיש: 'בטיחות AI לא רלוונטית אם הנתונים חשופים'. המקרה שינה את דעתו על צעצועים כאלה בביתו.

עבור מנהלי עסקים והורים בישראל, המקרה מדגיש את הצורך באבטחת נתוני ילדים במוצרי AI. חברות טכנולוגיה חייבות להטמיע אימות חזק, פיקוח על גישה פנימית ולשקול שיתופי פעולה עם ספקי AI. השאלה היא: האם צעצועי AI שווים את הסיכון לפרטיות הילדים?

בקיצור, הורים צריכים לבדוק פרוטוקולי אבטחה לפני רכישה, וחברות – להשקיע באבטחה מראש. מה דעתכם?

שאלות ותשובות

FAQ

הכתבה הוכנה על-ידי המערכת בליווי בינה מלאכותית: תרגום, סיכום והוספת הקשר עסקי ישראלי מתוך פרסום מקורי של Wired. קראו על תהליך העריכה שלנו. קישור למקור המקורי.

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

Your information will only be used to contact you and deliver our services. For details, see ourPrivacy Policy and Terms of Service

עוד מ־Wired

כל הכתבות מ־Wired
משבר אתי: למה עובדי Google מתאגדים נגד פרויקטים ביטחוניים עם ישראל?
חדשות
לפני 15 שעות
5 דקות
·מ־Wired

משבר אתי: למה עובדי Google מתאגדים נגד פרויקטים ביטחוניים עם ישראל?

סערה ב-Google: עובדי מעבדת המחקר DeepMind שבלונדון מקדמים מהלך התאגדות היסטורי בשיתוף עם איגודי עובדים בריטיים, במטרה ברורה – לבלום את שיתופי הפעולה של ענקית הטכנולוגיה עם משרד ההגנה האמריקאי ועם כוחות הביטחון הישראליים. המהלך נוצר כתגובה ישירה לדיווחים כי חברת האם, Alphabet, אישרה לכאורה חוזים צבאיים חדשים המספקים שירותי ענן ללא הבטחת פיקוח אנושי הרמטי. המשבר הפנימי, המקבל רוח גבית מעובדים בחברות נוספות כגון Anthropic ו-Palantir, מציף מחדש את שאלת הסיכון בספקיות יחיד – עבור עסקים ישראליים המסתמכים על תשתיות Google לפעילות השוטפת שלהם, מדובר בנורת אזהרה המחייבת גיוון טכנולוגי בהקדם.

GoogleAlphabetUS Department of Defense
קרא עוד
סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות
ניתוח
לפני 16 שעות
5 דקות
·מ־Wired

סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות

האם אלגוריתם גיוס שלל מכם משרה ראויה? תחקיר חדש של מגזין WIRED חושף את סיפורו של סטודנט לרפואה, שגילה כי מערכות סינון קורות חיים אוטומטיות (ATS) פסלו את מועמדותו להתמחות בשל היעדרות רפואית שהוזנה במונח העמום "סיבות אישיות". על רקע ההצפה של מחלקות משאבי האנוש בפניות המיוצרות בעצמן על ידי מודלי שפה, חברות רבות ממהרות לאמץ פתרונות סינון מהירים ללא הבנה מלאה של מנגנון הפעולה שלהם. המקרה ממחיש את הסכנה בהסתמכות עיוורת על 'קופסאות שחורות' לקבלת החלטות גיוס מהותיות. עבור עסקים בישראל, בהם קורות חיים מכילים תכופות פערי זמן עקב שירות צבאי ושירות מילואים, המסקנה ברורה: מערכות אוטומציה מתקדמות הן אכן הכרח ניהולי, אך חובה לשלב בהן שקיפות מלאה ובקרה אנושית מדוקדקת כדי למנוע אפליה בלתי מכוונת ופספוס של מועמדים איכותיים.

Chad MarkeyThalamusCortex
קרא עוד
חשיפת נתונים פיננסיים: מניות של 30 מיליארד דולר נחשפות במשפט מאסק
חדשות
אתמול
4 דקות
·מ־Wired

חשיפת נתונים פיננסיים: מניות של 30 מיליארד דולר נחשפות במשפט מאסק

גרג ברוקמן, נשיא אחת מחברות התוכנה המובילות בתחום הבינה המלאכותית, חשף בבית המשפט הפדרלי נתונים פיננסיים חסרי תקדים על עושרו האישי ועל המבנה הארגוני של החברה. במסגרת משפט מתוקשר מול אילון מאסק, ברוקמן גילה כי החזקותיו האישיות במניות החברה מוערכות בכ-30 מיליארד דולר. בעדותו ניסה ברוקמן להדוף את טענותיו של מאסק כי הנהלת החברה זנחה את ייעודה הציבורי המקורי לטובת התעשרות פרטית, והסביר כי ההצלחה הפיננסית היא תוצר של עבודה קשה מאז שמאסק עזב את הדירקטוריון. הנתונים חושפים מבט נדיר על ניגודי העניינים והקשרים המסחריים בצמרת תעשיית פיתוח מודלי השפה, עם השלכות גם על החברות הישראליות המסתמכות על תשתיות אלו כבסיס לפעילותן העסקית דרך קריאות API.

Greg BrockmanElon MuskSam Altman
קרא עוד
איתור חולשות אבטחה מבוסס AI: ה-NSA ומהפכת הסייבר בארגונים
חדשות
לפני 3 ימים
5 דקות
·מ־Wired

איתור חולשות אבטחה מבוסס AI: ה-NSA ומהפכת הסייבר בארגונים

הנוף של אבטחת המידע הארגוני עובר טלטלה חסרת תקדים. דיווחים חדשים חושפים כי הסוכנות לביטחון לאומי של ארצות הברית (NSA) בוחנת בימים אלו את מודל הבינה המלאכותית Mythos מבית Anthropic, במטרה לאתר חולשות קוד במערכות תוכנה מרכזיות. במקביל, ארגונים נאלצים להתמודד עם אתגרי פרטיות חדשים הנובעים משימוש הולך וגובר במערכות ביומטריות – כמו הכנסת טכנולוגיית זיהוי הפנים לפארקים של דיסנילנד. המגמות הללו, לצד תקריות מדאיגות של דליפות מידע ומעצר האקרים צעירים מקבוצות כופר מתוחכמות, מדגישות כי עסקים חייבים לנהל מדיניות נתונים נוקשה יותר. חברות ישראליות האוספות נתוני לקוחות נדרשות כעת לבחון מחדש את אסטרטגיית ההגנה שלהן ולשלב אוטומציות אבטחה כדי להימנע מקנסות רגולטוריים ופגיעה אנושה במוניטין.

AnthropicNSAMythos Preview
קרא עוד

עוד כתבות שיעניינו אותך

לכל הכתבות
סוכני AI לנתונים מובנים: הרכישה החדשה של SAP והחסימה של OpenClaw
חדשות
לפני 3 שעות
5 דקות
·מ־TechCrunch

סוכני AI לנתונים מובנים: הרכישה החדשה של SAP והחסימה של OpenClaw

ענקית התוכנה SAP הודיעה על השקעה של 1.16 מיליארד דולר במעבדת ה-AI של הסטארטאפ הגרמני Prior Labs, המתמחה במודלי בינה מלאכותית לנתונים טבלאיים (TFM). במקביל, דיווחים חושפים כי החברה ביצעה שינוי דרמטי במדיניות ממשקי ה-API שלה, וכעת היא חוסמת באופן גורף גישה של סוכני AI חיצוניים שאינם מורשים – דוגמת OpenClaw. מנגד, סביבות שאושרו ספציפית כמו סוכני Joule של SAP ו-NemoClaw של Nvidia מורשות לפעול במערכת. המהלך מסמן מגמה גוברת של חברות תוכנה ארגוניות להדק את השליטה על הנתונים הרגישים שלהן, ומציב אתגר מורכב בפני חברות ישראליות המבקשות לשלב אוטומציות עצמאיות במערכות ה-ERP, הרכש והכספים שלהן.

SAPPrior LabsOpenClaw
קרא עוד
מנכ״ל ASML מגיב לאיומים: הדומיננטיות בתשתית שבבי הבינה המלאכותית מובטחת
חדשות
לפני 7 שעות
5 דקות
·מ־TechCrunch

מנכ״ל ASML מגיב לאיומים: הדומיננטיות בתשתית שבבי הבינה המלאכותית מובטחת

כריסטוף פוקה, מנכ״ל ענקית ייצור ציוד השבבים ההולנדית ASML, חושף בראיון ל-TechCrunch כי המונופול של החברה בייצור מכונות ליתוגרפיה מסוג EUV חסין מפני מתחרים חדשים ואפילו מול ניסיונות ריגול בסין. בזמן שענקיות הטכנולוגיה צפויות להשקיע השנה 600 מיליארד דולר בתשתיות AI, פוקה מזהיר ממחסור עולמי בשבבים שעלול להימשך עד חמש שנים. לדבריו, בניית תשתית מתחרה דורשת עשורים של ידע מצטבר שמקשה על כל חברה אחרת להיכנס לשוק. עבור עסקים בישראל שמסתמכים על כלי בינה מלאכותית, המסקנה ברורה: עלויות המחשוב צפויות להישאר משמעותיות בתקופה הקרובה, ועל ארגונים לאמץ אסטרטגיות חיסכון ואופטימיזציה בתהליכי האוטומציה שלהם.

ASMLChristophe FouquetMicrosoft
קרא עוד
הטמעת בינה מלאכותית בחברות פינטק: פייפאל חותכת 20% מעובדיה
חדשות
לפני 11 שעות
4 דקות
·מ־TechCrunch

הטמעת בינה מלאכותית בחברות פינטק: פייפאל חותכת 20% מעובדיה

פייפאל יוצאת לדרך חדשה ומכריזה על מעבר למודל של חברת טכנולוגיה ממוקדת בינה מלאכותית. המנכ"ל, אנריקה לורס, חשף בשיחת המשקיעים האחרונה כי החברה משלבת כלי AI לאורך כל תהליכי הפיתוח, שירות הלקוחות וניהול הסיכונים שלה. עם זאת, לטרנספורמציה העמוקה יש מחיר משמעותי: פייפאל תפטר כ-20% מעובדיה, שהם למעלה מ-4,500 משרות, במטרה לחסוך כ-1.5 מיליארד דולר בשלוש השנים הקרובות. המהלך הדרמטי מעורר הדים בתעשיית הפינטק הגלובלית, וממחיש באופן ברור כיצד אימוץ אגרסיבי של מערכות בינה מלאכותית מהווה היום לא רק כלי עזר עבור ארגונים, אלא מנגנון הישרדות פיננסי חיוני עבור תאגידי ענק המבקשים לרצות את המשקיעים.

PayPalEnrique LoresSpotify
קרא עוד
משבר אתי: למה עובדי Google מתאגדים נגד פרויקטים ביטחוניים עם ישראל?
חדשות
לפני 15 שעות
5 דקות
·מ־Wired

משבר אתי: למה עובדי Google מתאגדים נגד פרויקטים ביטחוניים עם ישראל?

סערה ב-Google: עובדי מעבדת המחקר DeepMind שבלונדון מקדמים מהלך התאגדות היסטורי בשיתוף עם איגודי עובדים בריטיים, במטרה ברורה – לבלום את שיתופי הפעולה של ענקית הטכנולוגיה עם משרד ההגנה האמריקאי ועם כוחות הביטחון הישראליים. המהלך נוצר כתגובה ישירה לדיווחים כי חברת האם, Alphabet, אישרה לכאורה חוזים צבאיים חדשים המספקים שירותי ענן ללא הבטחת פיקוח אנושי הרמטי. המשבר הפנימי, המקבל רוח גבית מעובדים בחברות נוספות כגון Anthropic ו-Palantir, מציף מחדש את שאלת הסיכון בספקיות יחיד – עבור עסקים ישראליים המסתמכים על תשתיות Google לפעילות השוטפת שלהם, מדובר בנורת אזהרה המחייבת גיוון טכנולוגי בהקדם.

GoogleAlphabetUS Department of Defense
קרא עוד