Skip to main content
Automaziot AI logo
  • Home
  • Blog
  • About
  • Contact
(646) 760-4854Book a Free Consultation
Automaziot AI - AI Automation and Intelligent Agents for Business

AI Automation Experts. We help businesses streamline operations and scale faster with intelligent agents and workflow automation.

USA(646) 760-4854Israel HQ+972-3-7630715info@automaziot.ai
Israel HQ: Ahad Ha'Am 9, Tel Aviv

Quick Links

  • Home
  • About
  • Contact
  • Case Studies
  • Glossary

Our Solutions

  • Lead Management
  • WhatsApp AI Agent
  • Business Automation
  • Smart CRM
  • Automated Scheduling
  • Sales & Support
  • WhatsApp Commerce
  • AI Agents
  • Tech Consulting

Stay Updated

Get the latest insights on AI automation delivered to your inbox.

FacebookInstagramLinkedIn

This site uses Google Analytics and Vercel Analytics to improve your experience. For full details, see our Privacy Policy

© 2026 Automaziot AI. All rights reserved.

Privacy PolicyTerms of ServiceAccessibilityEditorial Policy
דליפת נתונים אצל ספק AI: הלקחים לעסקים | Automaziot
דליפת הנתונים ב-Mercor: מה זה אומר לספקי AI בישראל
ביתחדשותדליפת הנתונים ב-Mercor: מה זה אומר לספקי AI בישראל
ניתוח

דליפת הנתונים ב-Mercor: מה זה אומר לספקי AI בישראל

אחרי חשיפת פריצה של 4TB ועצירת חוזים מצד Meta, זה הלקח לכל עסק שמוסר דאטה לספקי AI

צוות אוטומציות AIצוות אוטומציות AI
9 באפריל 2026
6 דקות קריאה

תגיות

MercorTechCrunchMetaOpenAILiteLLMDelveWiredBusiness InsiderThe InformationGartnerIBMZoho CRMWhatsApp Business APIN8NHubSpotMondaySalesforce

נושאים קשורים

#אבטחת מידע ב-AI#WhatsApp Business API ישראל#N8N לעסקים#Zoho CRM בישראל#סיכון צד שלישי#אוטומציה למרפאות
מבוסס על כתבה שלTechCrunch ↗·תרגום, סיכום והקשר עסקי על-ידי המערכתאיך אנחנו עובדים

✨תקציר מנהלים

Key Takeaways

  • לפי הדיווח, Mercor שנשאה שווי של 10 מיליארד דולר חשפה אירוע שבו נטען לגניבת 4TB של נתונים רגישים.

  • הפריצה נקשרה ל-LiteLLM, כלי קוד פתוח עם מיליוני הורדות ביום, שבתוכו הוטמעה נוזקה למשך 40 דקות.

  • Meta עצרה התקשרויות עם Mercor, OpenAI בודקת חשיפה, וחמישה קבלנים כבר הגישו תביעות לפי Business Insider.

  • לעסקים בישראל, הלקח הוא לנהל מפתחות API, הרשאות וסביבות N8N או CRM כמו נכס קריטי, לא כמו תוסף טכני.

  • תהליך מאובטח שמחבר WhatsApp Business API, Zoho CRM ו-N8N יכול לעלות ₪4,000-₪12,000 בהקמה, אך לצמצם סיכון תפעולי ומשפטי.

דליפת הנתונים ב-Mercor: מה זה אומר לספקי AI בישראל

  • לפי הדיווח, Mercor שנשאה שווי של 10 מיליארד דולר חשפה אירוע שבו נטען לגניבת 4TB...
  • הפריצה נקשרה ל-LiteLLM, כלי קוד פתוח עם מיליוני הורדות ביום, שבתוכו הוטמעה נוזקה למשך 40...
  • Meta עצרה התקשרויות עם Mercor, OpenAI בודקת חשיפה, וחמישה קבלנים כבר הגישו תביעות לפי Business...
  • לעסקים בישראל, הלקח הוא לנהל מפתחות API, הרשאות וסביבות N8N או CRM כמו נכס קריטי,...
  • תהליך מאובטח שמחבר WhatsApp Business API, Zoho CRM ו-N8N יכול לעלות ₪4,000-₪12,000 בהקמה, אך לצמצם...

דליפת נתונים אצל Mercor וסיכוני ספקי דאטה ל-AI

דליפת נתונים אצל ספק AI היא אירוע שבו מידע עסקי, נתוני מועמדים ומפתחות גישה נחשפים דרך חוליה חלשה בשרשרת האספקה. במקרה של Mercor, לפי הדיווח, מדובר ב-4TB של מידע גנוב לכאורה ובהשלכות מיידיות על חוזים מסחריים. עבור עסקים ישראליים, זו לא עוד דרמת סייבר רחוקה אלא תזכורת לכך שספק חיצוני שמחבר בין מודלים, מאגרי מידע ו-API יכול להפוך בתוך 40 דקות מנכס תפעולי לסיכון הנהלתי, משפטי ומכירתי.

מה זה סיכון צד שלישי בשרשרת AI?

סיכון צד שלישי בשרשרת AI הוא החשיפה שנוצרת כאשר ארגון נשען על ספק חיצוני לצורך אימון מודלים, עיבוד נתונים, ניהול הרשאות או חיבורי API. בהקשר עסקי, המשמעות היא שגם אם ה-CRM שלכם, סביבת הענן והנהלים הפנימיים תקינים, חולשה אצל ספק משנה עלולה לחשוף מידע רגיש. לדוגמה, משרד השמה ישראלי ששולח קורות חיים, תיעוד ראיונות ונתוני שכר לספק AI עלול לגלות שפרטי מועמדים, כתובות מייל ומסמכים פנימיים דלפו בגלל כלי קוד פתוח אחד. לפי Gartner, ניהול סיכוני צד שלישי הוא כבר רכיב מרכזי בממשל נתונים בארגונים מבוססי AI.

מה קרה ב-Mercor לפי הדיווח

לפי TechCrunch, Mercor, סטארט-אפ בתחום אימון נתונים ל-AI, גייס לפני כחצי שנה סבב Series C של 350 מיליון דולר לפי שווי של 10 מיליארד דולר. ב-31 במרץ החברה הודתה כי הייתה יעד לדליפת נתונים. זמן קצר לאחר מכן, קבוצת האקרים טענה שהשיגה 4TB של נתונים ממערכות החברה, כולל פרופילי מועמדים, מידע אישי מזהה, נתוני מעסיקים, קוד מקור ומפתחות API. Mercor לא אישרה את אותנטיות המידע שפורסם לכאורה, אך מסרה שהיא חוקרת את האירוע ומעדכנת לקוחות וקבלנים ישירות לפי הצורך.

לפי הודעת החברה, מקור האירוע היה פריצה דרך LiteLLM, כלי קוד פתוח פופולרי מאוד שנמשך אליו מיליוני הורדות ביום. במשך 40 דקות, כך דווח, הוטמעה בכלי נוזקה לגניבת הרשאות גישה. אותן הרשאות שימשו לחדירה לחשבונות נוספים, השגת עוד פרטי גישה והרחבת הפגיעה. זו נקודה מהותית: לא מדובר רק בפרצת קוד מקומית, אלא באפקט דומינו טיפוסי של סביבת AI שבה מודלים, שרתי inference, כלי אורקסטרציה וממשקי API תלויים זה בזה.

ההשלכות העסקיות כבר התחילו

הנזק אינו רק טכני. לפי Wired, Meta עצרה את החוזים שלה עם Mercor ללא הגבלת זמן, צעד משמעותי במיוחד משום שחברות אימון נתונים מחזיקות לעיתים את הסודות המסחריים הרגישים ביותר של בונות המודלים: מערכי נתונים מותאמים, תהליכי תיוג ושיטות עבודה פנימיות. OpenAI מסרה ל-Wired שהיא בודקת את היקף החשיפה שלה, אך נכון למועד הדיווח לא עצרה או סיימה את ההתקשרויות. במקביל, לפי Business Insider, חמישה קבלנים הגישו תביעות בגין חשיפה לכאורה של מידע אישי. אם נוסיף לכך דיווח ב-The Information שלפיו Mercor הייתה בדרך לקצב הכנסות שנתי של יותר ממיליארד דולר, ברור שהפגיעה האפשרית כאן היא לא רק תדמיתית אלא גם מסחרית בהיקף עצום.

ההקשר הרחב: כשקוד פתוח, תאימות ואבטחה נפגשים

הסיפור של Mercor מתחבר למגמה רחבה יותר: ארגוני AI רצים מהר עם LiteLLM, LangChain, מסדי וקטורים, סביבות ענן וכלי DevOps, אבל מנגנוני הבקרה לא תמיד מדביקים את הקצב. לפי IBM Cost of a Data Breach, העלות הממוצעת של אירוע דליפת נתונים גלובלי עמדה בשנים האחרונות על כ-4.45 מיליון דולר. בארגונים שמפעילים שרשראות ספקים מורכבות, העלות עלולה לעלות עוד יותר בגלל השבתת שירות, חקירות משפטיות ואובדן לקוחות. במקרה הזה נכנס גם שמה של Delve, חברת תאימות שנקשרה לביקורת ציבורית נפרדת סביב תהליכי הסמכה. גם אם Mercor עצמה לא הייתה לקוחה של Delve, עצם החיבור בין אבטחה, audit ותלות בספקי משנה ממחיש כמה דק הגבול בין "יש לנו תקן" לבין הגנה אמיתית בשטח.

ניתוח מקצועי: הבעיה האמיתית היא לא LiteLLM אלא ממשל הרשאות

מניסיון בהטמעה אצל עסקים ישראלים, המשמעות האמיתית כאן היא שלא נכון לנהל סיכוני AI רק דרך רשימת ספקים או בדיקת תקני אבטחה על הנייר. הבעיה המרכזית בדרך כלל נמצאת בממשל הרשאות, בסודות גישה ובזרימת מידע בין מערכות. ברגע שמפתח API של OpenAI, חיבור ל-Zoho CRM, סביבת N8N או חשבון ענן משותף נשמרים בלי הפרדת הרשאות, תוקף לא צריך לפרוץ לכל המערכות בנפרד; הוא פשוט מנצל נקודת כניסה אחת ומתקדם אופקית. זה בדיוק הלקח שמנהלי תפעול ו-CTO צריכים לקחת מהאירוע: כלי קוד פתוח הוא לא האויב, אבל הפעלה שלו בלי בידוד סביבות, rotation למפתחות, audit logs ובקרת גישה מבוססת תפקידים היא הזמנה לאירוע.

בפועל, כשעסק בונה תהליך שמחבר בין WhatsApp Business API, טפסי לידים, מערכת CRM חכמה וסוכן מבוסס GPT, הוא יוצר שרשרת מידע שחייבת לעבוד כמו מערכת פיננסית, לא כמו ניסוי. במילים פשוטות: כל חיבור צריך owner, כל מפתח צריך תאריך תפוגה, וכל תהליך צריך fallback. ההערכה שלי היא שב-12 החודשים הקרובים נראה לקוחות אנטרפרייז דורשים מספקי AI לא רק שאלון אבטחה אלא גם הוכחת incident response, רישום גישה מפורט והפרדת סביבות עבודה ללקוחות שונים.

ההשלכות לעסקים בישראל

עבור עסקים בישראל, ההשלכה המעשית ברורה במיוחד בענפים עתירי מידע אישי: משרדי עורכי דין, סוכני ביטוח, מרפאות פרטיות, חברות השמה, משרדי רואי חשבון ועסקי נדל"ן. אם אתם מעלים מסמכי לקוח, קורות חיים, סיכומי שיחה או נתוני אשראי חלקיים לכלי AI חיצוני, אתם לא בוחנים רק את המודל אלא את כל שרשרת האינטגרציה סביבו. לפי חוק הגנת הפרטיות הישראלי והתקנות הנלוות, אחריות על מידע אישי אינה נעלמת רק כי ספק חיצוני עיבד אותו. לכן, גם עסק קטן עם 15 עובדים שמפעיל בוט שירות ב-WhatsApp חייב לדעת איפה נשמרים הלוגים, מי רואה אותם, וכמה זמן הם נשמרים.

דוגמה פשוטה: קליניקה פרטית בתל אביב שמחברת טופס לידים, WhatsApp Business API, Zoho CRM ו-N8N כדי לתאם ביקורים ולהחזיר תשובות אוטומטיות יכולה להרוויח זמן תגובה של פחות מדקה במקום כמה שעות. אבל אם המערכת שומרת מסמכים רפואיים, פרטי קשר ותמלולי שיחה בלי הפרדה בין סביבת בדיקות לייצור, הסיכון עולה מיד. כאן בדיוק נכנסים פתרונות אוטומציה: לא רק לבנות זרימה שעובדת, אלא לקבוע הרשאות, הצפנה, masking לנתונים רגישים ותיעוד מסודר. בפרויקטים בשוק הישראלי, עלות הקמה בסיסית לתהליך כזה יכולה לנוע סביב ₪4,000-₪12,000, ועלות תחזוקה חודשית סביב ₪800-₪2,500, תלוי במספר המערכות, נפח השיחות ורמת הבקרה הנדרשת.

מה לעשות עכשיו: צעדים מעשיים לספקי AI ולעסקים

  1. בדקו השבוע אילו ספקים חיצוניים נוגעים במידע שלכם: CRM, כלי AI, ספק WhatsApp, פלטפורמות אוטומציה וכלי קוד פתוח. צרו רשימה של כל מפתח API פעיל תוך 48 שעות.
  2. ודאו שהמערכות שלכם כמו Zoho, HubSpot, Monday או Salesforce תומכות בהפרדת הרשאות, audit logs ו-rotation למפתחות. אם לא, הגדירו פיצוי תפעולי מיידי.
  3. הריצו פיילוט אבטחה של שבועיים על תהליך אחד קריטי באמצעות N8N או כלי orchestration אחר, כולל בדיקת לוגים, ניתוק הרשאות מיותרות וסביבת sandbox. עלות בדיקה כזו בישראל יכולה להתחיל סביב ₪2,500.
  4. בקשו מכל ספק AI מסמך מסודר על incident response, זמני דיווח, מיקום אחסון הנתונים ומחזור חיי הרשאות. אם אין לו תשובה ברורה בתוך כמה ימי עסקים, זו נורת אזהרה עסקית.

מבט קדימה על שוק ספקי ה-AI

ב-12 עד 18 החודשים הקרובים, השוק לא יתגמל רק מי שמספק מודל טוב או מחיר נמוך, אלא מי שמוכיח משמעת תפעולית סביב נתונים, הרשאות ואינטגרציות. זה נכון במיוחד לעסקים ישראליים שרוצים להכניס AI לשירות, מכירות ותפעול בלי להסתכן באירוע חשיפה יקר. מי שיבנה כבר עכשיו תשתית שמשלבת AI Agents, WhatsApp Business API, Zoho CRM ו-N8N עם בקרת גישה ואחריות ברורה, יגיע מוכן יותר לסבב הדרישות הבא של לקוחות, רגולטורים ושותפים.

שאלות ותשובות

FAQ

הכתבה הוכנה על-ידי המערכת בליווי בינה מלאכותית: תרגום, סיכום והוספת הקשר עסקי ישראלי מתוך פרסום מקורי של TechCrunch. קראו על תהליך העריכה שלנו. קישור למקור המקורי.

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

Your information will only be used to contact you and deliver our services. For details, see ourPrivacy Policy and Terms of Service

עוד מ־TechCrunch

כל הכתבות מ־TechCrunch
הטמעת בינה מלאכותית בחברות פינטק: פייפאל חותכת 20% מעובדיה
חדשות
לפני 2 שעות
4 דקות
·מ־TechCrunch

הטמעת בינה מלאכותית בחברות פינטק: פייפאל חותכת 20% מעובדיה

פייפאל יוצאת לדרך חדשה ומכריזה על מעבר למודל של חברת טכנולוגיה ממוקדת בינה מלאכותית. המנכ"ל, אנריקה לורס, חשף בשיחת המשקיעים האחרונה כי החברה משלבת כלי AI לאורך כל תהליכי הפיתוח, שירות הלקוחות וניהול הסיכונים שלה. עם זאת, לטרנספורמציה העמוקה יש מחיר משמעותי: פייפאל תפטר כ-20% מעובדיה, שהם למעלה מ-4,500 משרות, במטרה לחסוך כ-1.5 מיליארד דולר בשלוש השנים הקרובות. המהלך הדרמטי מעורר הדים בתעשיית הפינטק הגלובלית, וממחיש באופן ברור כיצד אימוץ אגרסיבי של מערכות בינה מלאכותית מהווה היום לא רק כלי עזר עבור ארגונים, אלא מנגנון הישרדות פיננסי חיוני עבור תאגידי ענק המבקשים לרצות את המשקיעים.

PayPalEnrique LoresSpotify
קרא עוד
הנפקת הענק של Cerebras: גיבוי מ-OpenAI ומאבק על עלויות ה-AI
חדשות
לפני 21 שעות
4 דקות
·מ־TechCrunch

הנפקת הענק של Cerebras: גיבוי מ-OpenAI ומאבק על עלויות ה-AI

חברת השבבים Cerebras, הנהנית מגיבוי מאסיבי ומחוזים בשווי למעלה מ-10 מיליארד דולר מול OpenAI, מתכוננת להנפקת הענק של 2026. לפי דיווחים, החברה צפויה לגייס 3.5 מיליארד דולר לפי שווי מקסימלי של 26.6 מיליארד דולר, במטרה לאתגר את הדומיננטיות של Nvidia בשוק החומרה. המהלך מסמן נקודת מפנה בתעשיית הבינה המלאכותית: השבב הייעודי Wafer-Scale Engine 3 מאפשר תהליכי עיבוד (Inference) מהירים וזולים משמעותית לעומת מעבדים גרפיים מסורתיים. המשמעות עבור השוק הישראלי היא דרמטית – ירידה צפויה בעלויות הפעלת מודלי שפה, שתוביל להוזלה ישירה בעלויות ה-API ותאפשר לעסקים להטמיע אוטומציות מורכבות וסוכני AI בתקציב נגיש מבעבר.

Cerebras SystemsOpenAINvidia
קרא עוד
אפליקציות הכתבה מבוססות בינה מלאכותית: הכלים המובילים ל-2026
חדשות
לפני 3 ימים
4 דקות
·מ־TechCrunch

אפליקציות הכתבה מבוססות בינה מלאכותית: הכלים המובילים ל-2026

אפליקציות הכתבה מבוססות בינה מלאכותית עוברות מהפכה של ממש, ומאפשרות כעת המרת דיבור לטקסט ברמת דיוק חסרת תקדים. בניגוד לתוכנות זיהוי הקול הישנות שדרשו הגייה מדוקדקת ונפלו במבחן ההקשר, הדור החדש של האפליקציות - כמו Wispr Flow, Willow, ו-Superwhisper - נשען על מודלי שפה מתקדמים. הכלים האלו מתקנים גמגומים אוטומטית, משמיטים מילות קישור מיותרות (כמו "אממ"), ומתאימים את הפורמט לאפליקציה בה אתם עובדים. יתרה מכך, מגמה בולטת בתעשייה היא מעבר לאפליקציות המריצות את המודלים ישירות על המחשב המקומי (On-Device). גישה זו פותרת לחלוטין את בעיית זליגת המידע לענן, עונה על דרישות רגולטוריות מחמירות של פרטיות מידע כמו חוק הגנת הפרטיות, ומאפשרת לעסקים בישראל לחסוך שעות של הזנת נתונים מייגעת למערכות ה-CRM באופן מאובטח ומהיר.

Wispr FlowWillowMonologue
קרא עוד
סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple
ניתוח
לפני 3 ימים
5 דקות
·מ־TechCrunch

סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple

פלטפורמת פיתוח הקוד מבוססת ה-AI עשתה זינוק חסר תקדים מהכנסות של 2.8 מיליון דולר ב-2024 למסלול הכנסות שנתי (ARR) של מיליארד דולר. הנתונים שנחשפו בכנס TechCrunch מצביעים על כך שארגוני ענק מאמצים סוכני AI כמחליפים למערכות נתונים מסורתיות, תוך הגעה לשימור לקוחות של עד 300%. בעוד מתחרות כדוגמת Cursor רושמות הפסדים גולמיים ומחפשות עסקאות רכישה מצד תאגידים כמו SpaceX, חברת Replit מציגה מודל רווחי המבוסס על סביבות ענן מבודדות. הנתונים מדגישים את החשיבות של אבטחת מידע בעבודה עם מחוללי קוד ואת המאבק המחריף בין ספקיות התשתית לחברות כמו Apple סביב השליטה בהפצת אפליקציות שנוצרו על ידי בינה מלאכותית.

ReplitAmjad MasadCursor
קרא עוד

עוד כתבות שיעניינו אותך

לכל הכתבות
סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות
ניתוח
לפני 8 שעות
5 דקות
·מ־Wired

סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות

האם אלגוריתם גיוס שלל מכם משרה ראויה? תחקיר חדש של מגזין WIRED חושף את סיפורו של סטודנט לרפואה, שגילה כי מערכות סינון קורות חיים אוטומטיות (ATS) פסלו את מועמדותו להתמחות בשל היעדרות רפואית שהוזנה במונח העמום "סיבות אישיות". על רקע ההצפה של מחלקות משאבי האנוש בפניות המיוצרות בעצמן על ידי מודלי שפה, חברות רבות ממהרות לאמץ פתרונות סינון מהירים ללא הבנה מלאה של מנגנון הפעולה שלהם. המקרה ממחיש את הסכנה בהסתמכות עיוורת על 'קופסאות שחורות' לקבלת החלטות גיוס מהותיות. עבור עסקים בישראל, בהם קורות חיים מכילים תכופות פערי זמן עקב שירות צבאי ושירות מילואים, המסקנה ברורה: מערכות אוטומציה מתקדמות הן אכן הכרח ניהולי, אך חובה לשלב בהן שקיפות מלאה ובקרה אנושית מדוקדקת כדי למנוע אפליה בלתי מכוונת ופספוס של מועמדים איכותיים.

Chad MarkeyThalamusCortex
קרא עוד
המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון
ניתוח
לפני 8 שעות
4 דקות
·מ־MIT Technology Review

המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון

המעבר של כלי בינה מלאכותית מחיפוש פסיבי לפעולה אקטיבית עתיד לשנות את דרכי ההתקשרות של הציבור מול מוסדות ועסקים. על פי ניתוח המבוסס על נתוני משרד אריק שמידט, השלב הבא במהפכת ה-AI הוא 'סוכנים אישיים' שיקבלו החלטות, ייצגו אינטרסים של אזרחים ולקוחות, ויבצעו פעולות עצמאיות כמו ניסוח מסמכים וביטול שירותים. עבור עסקים בישראל, מדובר באתגר טכנולוגי ומשפטי מורכב. כאשר רוב הפניות יגיעו מסוכנים אוטומטיים במקום מבני אדם, ארגונים יצטרכו להתאים את מערכות ה-CRM והאוטומציה שלהם (כדוגמת N8N ו-Zoho), ליישם מנגנוני אימות זהות קפדניים, ולעמוד בדרישות חוק הגנת הפרטיות, כדי לאפשר תקשורת אמינה ומאובטחת בין מערכות החברה לבוטים של הלקוחות.

Andrew SorotaJosh HendlerOffice of Eric Schmidt
קרא עוד
סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple
ניתוח
לפני 3 ימים
5 דקות
·מ־TechCrunch

סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple

פלטפורמת פיתוח הקוד מבוססת ה-AI עשתה זינוק חסר תקדים מהכנסות של 2.8 מיליון דולר ב-2024 למסלול הכנסות שנתי (ARR) של מיליארד דולר. הנתונים שנחשפו בכנס TechCrunch מצביעים על כך שארגוני ענק מאמצים סוכני AI כמחליפים למערכות נתונים מסורתיות, תוך הגעה לשימור לקוחות של עד 300%. בעוד מתחרות כדוגמת Cursor רושמות הפסדים גולמיים ומחפשות עסקאות רכישה מצד תאגידים כמו SpaceX, חברת Replit מציגה מודל רווחי המבוסס על סביבות ענן מבודדות. הנתונים מדגישים את החשיבות של אבטחת מידע בעבודה עם מחוללי קוד ואת המאבק המחריף בין ספקיות התשתית לחברות כמו Apple סביב השליטה בהפצת אפליקציות שנוצרו על ידי בינה מלאכותית.

ReplitAmjad MasadCursor
קרא עוד
המאבק על תודעת ה-AI: הקמפיין הסמוי של ענקיות הטכנולוגיה בארה"ב
ניתוח
לפני 3 ימים
5 דקות
·מ־Wired

המאבק על תודעת ה-AI: הקמפיין הסמוי של ענקיות הטכנולוגיה בארה"ב

תעשיית הבינה המלאכותית בארצות הברית לא מסתפקת רק בפיתוח מודלי שפה, אלא משקיעה מאות מיליוני דולרים כדי לעצב את דעת הקהל העולמית. דיווח של מגזין WIRED חושף כיצד ארגון המקושר לבכירי החברות OpenAI ו-Palantir, מממן משפיעני רשת בסכומים של כ-5,000 דולר לסרטון במטרה להציג את ההתפתחות הטכנולוגית של סין כאיום ביטחוני מוחשי על נתונים אישיים בארצות הברית ובעולם המערבי כולו. המטרה האסטרטגית מאחורי המהלך התקשורתי הזה היא לבלום הליכי חקיקה ורגולציה על חברות הטכנולוגיה האמריקאיות עצמן, באמתלה של פטריוטיות וביטחון לאומי מול האיום הסיני. חברות ישראליות, המסתמכות באופן הדוק על ממשקי ה-API של אותן חברות אמריקאיות לפיתוח תהליכי שירות ומכירה, חייבות להבין כיצד מאבקי השליטה הללו עלולים להשפיע על רמת אבטחת הנתונים של הלקוחות שלהן, וכיצד ניתן להיערך לכך תוך בניית ארכיטקטורת נתונים עצמאית המותאמת לחוק הגנת הפרטיות הישראלי.

Build American AILeading the FutureOpenAI
קרא עוד