Skip to main content
Automaziot AI logo
  • Home
  • Blog
  • About
  • Contact
(646) 760-4854Book a Free Consultation
Automaziot AI - AI Automation and Intelligent Agents for Business

AI Automation Experts. We help businesses streamline operations and scale faster with intelligent agents and workflow automation.

USA(646) 760-4854Israel HQ+972-3-7630715info@automaziot.ai
Israel HQ: Ahad Ha'Am 9, Tel Aviv

Quick Links

  • Home
  • About
  • Contact
  • Case Studies
  • Glossary

Our Solutions

  • Lead Management
  • WhatsApp AI Agent
  • Business Automation
  • Smart CRM
  • Automated Scheduling
  • Sales & Support
  • WhatsApp Commerce
  • AI Agents
  • Tech Consulting

Stay Updated

Get the latest insights on AI automation delivered to your inbox.

FacebookInstagramLinkedIn

This site uses Google Analytics and Vercel Analytics to improve your experience. For full details, see our Privacy Policy

© 2026 Automaziot AI. All rights reserved.

Privacy PolicyTerms of ServiceAccessibilityEditorial Policy
Mythos של Anthropic: מה זה אומר לעסקים | Automaziot
Mythos של Anthropic: מה עסקים בישראל צריכים להבין
ביתחדשותMythos של Anthropic: מה עסקים בישראל צריכים להבין
ניתוח

Mythos של Anthropic: מה עסקים בישראל צריכים להבין

העימות בין OpenAI ל-Anthropic חושף שאלה מעשית: איך להעריך מודלי סייבר סגורים בלי ליפול להייפ

צוות אוטומציות AIצוות אוטומציות AI
21 באפריל 2026
5 דקות קריאה

תגיות

Sam AltmanAnthropicMythosOpenAITechCrunchCore MemoryMcKinseyIBMGartnerN8NZoho CRMWhatsApp Business APIHubSpotMonday

נושאים קשורים

#AI לאבטחת מידע#Anthropic#OpenAI#WhatsApp Business API ישראל#Zoho CRM#N8N אוטומציה
מבוסס על כתבה שלTechCrunch ↗·תרגום, סיכום והקשר עסקי על-ידי המערכתאיך אנחנו עובדים

✨תקציר מנהלים

Key Takeaways

  • לפי TechCrunch, Anthropic שחררה את Mythos רק לקבוצה קטנה של לקוחות אנטרפרייז, לא לציבור הרחב.

  • סם אלטמן טען בפודקאסט שרטוריקת הסיכון של Anthropic היא שיווק מבוסס פחד, לא הוכחת ערך.

  • לפי Gartner, יותר מ-40% מפרויקטי GenAI בארגונים עשויים לעבור הערכה מחדש עד 2027 בגלל עלות או ערך לא מוכח.

  • פיילוט של 14–30 יום עם KPI ברורים חשוב יותר מהבטחות דרמטיות על מודל "חזק מדי".

  • לעסקים בישראל, הערך האמיתי מגיע מחיבור מודל AI ל-Zoho CRM, N8N ו-WhatsApp Business API עם בקרת הרשאות.

Mythos של Anthropic: מה עסקים בישראל צריכים להבין

  • לפי TechCrunch, Anthropic שחררה את Mythos רק לקבוצה קטנה של לקוחות אנטרפרייז, לא לציבור הרחב.
  • סם אלטמן טען בפודקאסט שרטוריקת הסיכון של Anthropic היא שיווק מבוסס פחד, לא הוכחת ערך.
  • לפי Gartner, יותר מ-40% מפרויקטי GenAI בארגונים עשויים לעבור הערכה מחדש עד 2027 בגלל עלות...
  • פיילוט של 14–30 יום עם KPI ברורים חשוב יותר מהבטחות דרמטיות על מודל "חזק מדי".
  • לעסקים בישראל, הערך האמיתי מגיע מחיבור מודל AI ל-Zoho CRM, N8N ו-WhatsApp Business API עם...

Mythos של Anthropic לעסקים: בין אבטחת סייבר לשיווק מבוסס פחד

Mythos הוא מודל סייבר של Anthropic שהחברה מציגה ככלי חזק מספיק כדי לא לשחרר לציבור הרחב. לפי הדיווח, הגישה אליו מוגבלת כעת לקבוצה קטנה של לקוחות אנטרפרייז בלבד. עבור עסקים בישראל, הסיפור האמיתי אינו הדרמה בין סם אלטמן ל-Anthropic, אלא השאלה איך בוחנים טענות על מודלי אבטחה מבלי לקנות נרטיב שיווקי יקר מדי.

סם אלטמן, מנכ"ל OpenAI, תקף השבוע בפודקאסט "Core Memory" את האופן שבו Anthropic משווקת את Mythos, וכינה זאת בפועל "fear-based marketing". גם אם זו עקיצה בין שתי מתחרות ישירות, יש כאן נקודה שחשובה מאוד למנהלי טכנולוגיה, מנמ"רים ובעלי עסקים: שוק ה-AI הארגוני של 2026 מלא במסרים דרמטיים על "סיכון קיומי", "שימוש עברייני" ו"גישה מוגבלת", ולעיתים המסר השיווקי קודם להוכחת הערך בפועל. לפי McKinsey, יותר מ-65% מהארגונים כבר מדווחים על שימוש כלשהו בבינה מלאכותית, ולכן כל מסר כזה משפיע ישירות על תקציבים, רכש והחלטות אבטחה.

מה זה מודל סייבר ייעודי?

מודל סייבר ייעודי הוא מודל שפה או מערכת בינה מלאכותית שאומנה, כוילה או הוגבלה כדי לבצע משימות בתחום אבטחת המידע: ניתוח חולשות, סיווג אירועים, זיהוי דפוסי תקיפה, תמיכה ב-SOC וכתיבת המלצות תגובה. בהקשר עסקי, הערך שלו אינו בסיסמה אלא במדדים: כמה מהר הוא מצמצם זמן חקירה, כמה false positives הוא מפחית, והאם הוא מתחבר בפועל לכלים כמו SIEM, CRM ו-API ארגוניים. לפי IBM, העלות הממוצעת של פרצת מידע גלובלית עומדת בשנים האחרונות על מיליוני דולרים, ולכן כל כלי סייבר חדש נבחן קודם כל דרך ניהול סיכון, לא דרך יחסי ציבור.

מה באמת קרה בין OpenAI ל-Anthropic סביב Mythos

לפי הדיווח ב-TechCrunch, Anthropic הכריזה מוקדם יותר החודש על Mythos ושחררה אותו רק לקבוצה קטנה של לקוחות אנטרפרייז. החברה טענה שהמודל חזק מדי לפרסום ציבורי מחשש שגורמים עברייניים ינצלו אותו למתקפות סייבר. הביקורת כלפי העמדה הזו לא איחרה להגיע, וחלק מהמבקרים טענו שהרטוריקה מוגזמת. אלטמן, מצדו, רמז שהפחד משמש כאן ככלי להצדקת ריכוז הכוח בידי קבוצה קטנה של שחקנים.

הציטוט החריף ביותר של אלטמן הגיע כשהשווה את המהלך למסרים בסגנון "בנינו פצצה" ואז "נמכור לכם מקלט ב-100 מיליון דולר". חשוב להדגיש: לפי המקור, אין כאן חשיפה של ביצועים טכניים, בנצ'מרקים, שיעורי הצלחה או פירוט הנדסי עמוק של Mythos. כלומר, הדיון הציבורי מתנהל כרגע בעיקר ברמת נרטיב, גישה והצדקה מסחרית. זה הבדל מהותי עבור כל ארגון ששוקל רכש, כי בלי מדדי בדיקה ברורים קשה להצדיק פרויקט של מאות אלפי שקלים בשנה.

למה זה חשוב מעבר לדרמה בין מנכ"לים

העימות הזה מציף מגמה רחבה יותר: חברות AI מנסות לבדל את עצמן לא רק דרך תוצאות, אלא דרך סיפור סיכון. OpenAI, Anthropic, Google ו-Microsoft כבר פועלות בשוק שבו הגישה למודלים מתקדמים, שכבות בטיחות ומדיניות שימוש היא גם מוצר מסחרי וגם מנגנון שליטה. לפי Gartner, עד 2027 יותר מ-40% מפרויקטי GenAI בארגונים יעברו הערכה מחדש בגלל עלויות, סיכון עסקי או ערך לא מוכח. לכן, השאלה האם Mythos מסוכן מדי לציבור פחות חשובה לעסק ממוצע מהשאלה האם הוא מייצר ROI מדיד, אינטגרציה סבירה ומדיניות ציות שאפשר ליישם.

ניתוח מקצועי: איך לזהות הייפ במוצרי AI לאבטחת מידע

מניסיון בהטמעה אצל עסקים ישראלים, המשמעות האמיתית כאן היא לא מי ניצח בעקיצה התקשורתית, אלא איך ארגונים צריכים לדרוש הוכחות לפני רכישת כלי AI בתחום רגיש כמו סייבר. כשספק מציג מוצר כ"מסוכן מדי לציבור" אבל לא מספק ללקוח העסקי מסגרת בדיקה ברורה, צריך לשאול ארבע שאלות: אילו משימות המודל מבצע טוב יותר מכלי קיים, מה זמן ההטמעה, אילו לוגים ונתוני בקרה מקבלים, ואיך הוא מתחבר למערכות שכבר רצות בארגון. בנקודת מבט של יישום בשטח, מודל שלא מתחבר לזרימות עבודה דרך N8N, לא מזרים תוצאות ל-Zoho CRM או למערכת כרטיסים, ולא מייצר נתיב פעולה ברור ל-WhatsApp Business API עבור התראות ותגובות, נשאר הדגמה מרשימה ולא מערכת שימושית.

הנקודה שרבים מפספסים היא שתחום הסייבר הארגוני לא נמדד רק ביכולת "לגלות משהו מסוכן", אלא בקיצור זמן תגובה. אם צוות של 5-10 עובדים מקבל 200–500 התראות בחודש, גם שיפור של 20% בסינון רעשים יכול לחסוך עשרות שעות. אבל כדי להוכיח את זה צריך פיילוט של 14 עד 30 יום, KPI מוגדר מראש ושילוב עם תהליכי עבודה קיימים. ההערכה שלי היא שב-12 החודשים הקרובים נראה יותר ספקים שמגבילים גישה למודלים "רגישים" כדי לייצר בלעדיות ותמחור גבוה, גם כאשר הלקוח בפועל צריך קודם כל ממשקי API אמינים, audit trail וכללי הרשאה ברורים.

ההשלכות לעסקים בישראל

בישראל, הדיון הזה רלוונטי במיוחד למשרדי עורכי דין, סוכנויות ביטוח, חברות נדל"ן, מרפאות פרטיות וחנויות איקומרס שמחזיקות מידע אישי רגיש ומחפשות שכבת AI שתעזור בתפעול ובאבטחה בלי לפתוח סיכון מיותר. חוק הגנת הפרטיות, דרישות אבטחת מידע, והצורך בשפה עברית תקינה יוצרים רף גבוה יותר מאשר "וואו, יש מודל חדש". אם אתם מפעילים מוקד שירות, צוות מכירות או תהליכי קליטת לידים, אתם צריכים לשאול לא רק אם המודל חכם, אלא אם אפשר לבקר אותו, להגביל הרשאות ולתעד החלטות.

דוגמה מעשית: משרד ביטוח ישראלי יכול לחבר התראות סיכון, טפסי פנייה ומעקב לקוחות דרך CRM חכם, ולהשתמש ב-N8N כדי לנתב אירועים בין תיבת מייל, מערכת פנימית ו-WhatsApp Business API. במבנה כזה, מודל AI לא מחליף את מערך האבטחה אלא מוסיף שכבת סיווג, סיכום ותיעדוף. עלות פיילוט בסיסי לעסק קטן-בינוני בישראל יכולה להתחיל סביב ₪3,000–₪8,000 לחודש, תלוי ברישוי, חיבורים ותחזוקה. לעומת זאת, פרויקט ללא אפיון ובלי בקרות עלול לייצר הוצאה גבוהה בהרבה בלי תרומה אמיתית. כאן בדיוק נכנס היתרון של שילוב בין AI Agents, WhatsApp API, Zoho CRM ו-N8N: לא לקנות "קסם", אלא לבנות תהליך עובד. לעסקים שזקוקים למסלול כזה, חשוב לשלב גם אוטומציה עסקית עם בקרת הרשאות, תיעוד אירועים והפרדת מידע רגיש.

מה לעשות עכשיו: בדיקת מודל סייבר ארגוני בלי ליפול לשיווק

  1. בדקו אם המערכת הקיימת שלכם, למשל Zoho, HubSpot או Monday, תומכת ב-API שיאפשר להזרים אירועים למודל ולחזור עם תוצאה מתועדת.
  2. הגדירו פיילוט של 14 יום עם 2-3 KPI בלבד: זמן תגובה, שיעור false positives, וחיסכון בשעות עבודה אנושיות.
  3. בקשו מהספק פירוט הרשאות, audit logs, ומדיניות שימוש בנתונים לפני חתימה על רישוי שנתי.
  4. בחנו חיבור דרך N8N ו-WhatsApp Business API כדי להפוך תובנה לפעולה מיידית, ולא רק לדוח סטטי. טווח רישוי וכלי חיבור לעסק SMB יכול לנוע בין מאות שקלים לכמה אלפי שקלים בחודש.

מבט קדימה על שוק מודלי הסייבר ב-2026

העימות בין OpenAI ל-Anthropic לא יכריע לבדו מי תוביל את שוק הסייבר מבוסס AI, אבל הוא כן מאותת לאן השוק הולך: יותר מודלים סגורים, יותר מסרי סיכון, ויותר לחץ על ארגונים להבחין בין יכולת אמיתית לבין בידול שיווקי. ב-12 עד 18 החודשים הקרובים, העסקים שירוויחו יהיו אלה שיבנו סטאק מעשי — AI Agents, WhatsApp Business API, Zoho CRM ו-N8N — סביב תהליך מדיד, ולא סביב כותרת דרמטית.

שאלות ותשובות

FAQ

הכתבה הוכנה על-ידי המערכת בליווי בינה מלאכותית: תרגום, סיכום והוספת הקשר עסקי ישראלי מתוך פרסום מקורי של TechCrunch. קראו על תהליך העריכה שלנו. קישור למקור המקורי.

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

Your information will only be used to contact you and deliver our services. For details, see ourPrivacy Policy and Terms of Service

עוד מ־TechCrunch

כל הכתבות מ־TechCrunch
הטמעת בינה מלאכותית בחברות פינטק: פייפאל חותכת 20% מעובדיה
חדשות
לפני 3 שעות
4 דקות
·מ־TechCrunch

הטמעת בינה מלאכותית בחברות פינטק: פייפאל חותכת 20% מעובדיה

פייפאל יוצאת לדרך חדשה ומכריזה על מעבר למודל של חברת טכנולוגיה ממוקדת בינה מלאכותית. המנכ"ל, אנריקה לורס, חשף בשיחת המשקיעים האחרונה כי החברה משלבת כלי AI לאורך כל תהליכי הפיתוח, שירות הלקוחות וניהול הסיכונים שלה. עם זאת, לטרנספורמציה העמוקה יש מחיר משמעותי: פייפאל תפטר כ-20% מעובדיה, שהם למעלה מ-4,500 משרות, במטרה לחסוך כ-1.5 מיליארד דולר בשלוש השנים הקרובות. המהלך הדרמטי מעורר הדים בתעשיית הפינטק הגלובלית, וממחיש באופן ברור כיצד אימוץ אגרסיבי של מערכות בינה מלאכותית מהווה היום לא רק כלי עזר עבור ארגונים, אלא מנגנון הישרדות פיננסי חיוני עבור תאגידי ענק המבקשים לרצות את המשקיעים.

PayPalEnrique LoresSpotify
קרא עוד
הנפקת הענק של Cerebras: גיבוי מ-OpenAI ומאבק על עלויות ה-AI
חדשות
לפני 21 שעות
4 דקות
·מ־TechCrunch

הנפקת הענק של Cerebras: גיבוי מ-OpenAI ומאבק על עלויות ה-AI

חברת השבבים Cerebras, הנהנית מגיבוי מאסיבי ומחוזים בשווי למעלה מ-10 מיליארד דולר מול OpenAI, מתכוננת להנפקת הענק של 2026. לפי דיווחים, החברה צפויה לגייס 3.5 מיליארד דולר לפי שווי מקסימלי של 26.6 מיליארד דולר, במטרה לאתגר את הדומיננטיות של Nvidia בשוק החומרה. המהלך מסמן נקודת מפנה בתעשיית הבינה המלאכותית: השבב הייעודי Wafer-Scale Engine 3 מאפשר תהליכי עיבוד (Inference) מהירים וזולים משמעותית לעומת מעבדים גרפיים מסורתיים. המשמעות עבור השוק הישראלי היא דרמטית – ירידה צפויה בעלויות הפעלת מודלי שפה, שתוביל להוזלה ישירה בעלויות ה-API ותאפשר לעסקים להטמיע אוטומציות מורכבות וסוכני AI בתקציב נגיש מבעבר.

Cerebras SystemsOpenAINvidia
קרא עוד
אפליקציות הכתבה מבוססות בינה מלאכותית: הכלים המובילים ל-2026
חדשות
לפני 3 ימים
4 דקות
·מ־TechCrunch

אפליקציות הכתבה מבוססות בינה מלאכותית: הכלים המובילים ל-2026

אפליקציות הכתבה מבוססות בינה מלאכותית עוברות מהפכה של ממש, ומאפשרות כעת המרת דיבור לטקסט ברמת דיוק חסרת תקדים. בניגוד לתוכנות זיהוי הקול הישנות שדרשו הגייה מדוקדקת ונפלו במבחן ההקשר, הדור החדש של האפליקציות - כמו Wispr Flow, Willow, ו-Superwhisper - נשען על מודלי שפה מתקדמים. הכלים האלו מתקנים גמגומים אוטומטית, משמיטים מילות קישור מיותרות (כמו "אממ"), ומתאימים את הפורמט לאפליקציה בה אתם עובדים. יתרה מכך, מגמה בולטת בתעשייה היא מעבר לאפליקציות המריצות את המודלים ישירות על המחשב המקומי (On-Device). גישה זו פותרת לחלוטין את בעיית זליגת המידע לענן, עונה על דרישות רגולטוריות מחמירות של פרטיות מידע כמו חוק הגנת הפרטיות, ומאפשרת לעסקים בישראל לחסוך שעות של הזנת נתונים מייגעת למערכות ה-CRM באופן מאובטח ומהיר.

Wispr FlowWillowMonologue
קרא עוד
סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple
ניתוח
לפני 3 ימים
5 דקות
·מ־TechCrunch

סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple

פלטפורמת פיתוח הקוד מבוססת ה-AI עשתה זינוק חסר תקדים מהכנסות של 2.8 מיליון דולר ב-2024 למסלול הכנסות שנתי (ARR) של מיליארד דולר. הנתונים שנחשפו בכנס TechCrunch מצביעים על כך שארגוני ענק מאמצים סוכני AI כמחליפים למערכות נתונים מסורתיות, תוך הגעה לשימור לקוחות של עד 300%. בעוד מתחרות כדוגמת Cursor רושמות הפסדים גולמיים ומחפשות עסקאות רכישה מצד תאגידים כמו SpaceX, חברת Replit מציגה מודל רווחי המבוסס על סביבות ענן מבודדות. הנתונים מדגישים את החשיבות של אבטחת מידע בעבודה עם מחוללי קוד ואת המאבק המחריף בין ספקיות התשתית לחברות כמו Apple סביב השליטה בהפצת אפליקציות שנוצרו על ידי בינה מלאכותית.

ReplitAmjad MasadCursor
קרא עוד

עוד כתבות שיעניינו אותך

לכל הכתבות
סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות
ניתוח
לפני 8 שעות
5 דקות
·מ־Wired

סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות

האם אלגוריתם גיוס שלל מכם משרה ראויה? תחקיר חדש של מגזין WIRED חושף את סיפורו של סטודנט לרפואה, שגילה כי מערכות סינון קורות חיים אוטומטיות (ATS) פסלו את מועמדותו להתמחות בשל היעדרות רפואית שהוזנה במונח העמום "סיבות אישיות". על רקע ההצפה של מחלקות משאבי האנוש בפניות המיוצרות בעצמן על ידי מודלי שפה, חברות רבות ממהרות לאמץ פתרונות סינון מהירים ללא הבנה מלאה של מנגנון הפעולה שלהם. המקרה ממחיש את הסכנה בהסתמכות עיוורת על 'קופסאות שחורות' לקבלת החלטות גיוס מהותיות. עבור עסקים בישראל, בהם קורות חיים מכילים תכופות פערי זמן עקב שירות צבאי ושירות מילואים, המסקנה ברורה: מערכות אוטומציה מתקדמות הן אכן הכרח ניהולי, אך חובה לשלב בהן שקיפות מלאה ובקרה אנושית מדוקדקת כדי למנוע אפליה בלתי מכוונת ופספוס של מועמדים איכותיים.

Chad MarkeyThalamusCortex
קרא עוד
המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון
ניתוח
לפני 8 שעות
4 דקות
·מ־MIT Technology Review

המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון

המעבר של כלי בינה מלאכותית מחיפוש פסיבי לפעולה אקטיבית עתיד לשנות את דרכי ההתקשרות של הציבור מול מוסדות ועסקים. על פי ניתוח המבוסס על נתוני משרד אריק שמידט, השלב הבא במהפכת ה-AI הוא 'סוכנים אישיים' שיקבלו החלטות, ייצגו אינטרסים של אזרחים ולקוחות, ויבצעו פעולות עצמאיות כמו ניסוח מסמכים וביטול שירותים. עבור עסקים בישראל, מדובר באתגר טכנולוגי ומשפטי מורכב. כאשר רוב הפניות יגיעו מסוכנים אוטומטיים במקום מבני אדם, ארגונים יצטרכו להתאים את מערכות ה-CRM והאוטומציה שלהם (כדוגמת N8N ו-Zoho), ליישם מנגנוני אימות זהות קפדניים, ולעמוד בדרישות חוק הגנת הפרטיות, כדי לאפשר תקשורת אמינה ומאובטחת בין מערכות החברה לבוטים של הלקוחות.

Andrew SorotaJosh HendlerOffice of Eric Schmidt
קרא עוד
סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple
ניתוח
לפני 3 ימים
5 דקות
·מ־TechCrunch

סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple

פלטפורמת פיתוח הקוד מבוססת ה-AI עשתה זינוק חסר תקדים מהכנסות של 2.8 מיליון דולר ב-2024 למסלול הכנסות שנתי (ARR) של מיליארד דולר. הנתונים שנחשפו בכנס TechCrunch מצביעים על כך שארגוני ענק מאמצים סוכני AI כמחליפים למערכות נתונים מסורתיות, תוך הגעה לשימור לקוחות של עד 300%. בעוד מתחרות כדוגמת Cursor רושמות הפסדים גולמיים ומחפשות עסקאות רכישה מצד תאגידים כמו SpaceX, חברת Replit מציגה מודל רווחי המבוסס על סביבות ענן מבודדות. הנתונים מדגישים את החשיבות של אבטחת מידע בעבודה עם מחוללי קוד ואת המאבק המחריף בין ספקיות התשתית לחברות כמו Apple סביב השליטה בהפצת אפליקציות שנוצרו על ידי בינה מלאכותית.

ReplitAmjad MasadCursor
קרא עוד
המאבק על תודעת ה-AI: הקמפיין הסמוי של ענקיות הטכנולוגיה בארה"ב
ניתוח
לפני 3 ימים
5 דקות
·מ־Wired

המאבק על תודעת ה-AI: הקמפיין הסמוי של ענקיות הטכנולוגיה בארה"ב

תעשיית הבינה המלאכותית בארצות הברית לא מסתפקת רק בפיתוח מודלי שפה, אלא משקיעה מאות מיליוני דולרים כדי לעצב את דעת הקהל העולמית. דיווח של מגזין WIRED חושף כיצד ארגון המקושר לבכירי החברות OpenAI ו-Palantir, מממן משפיעני רשת בסכומים של כ-5,000 דולר לסרטון במטרה להציג את ההתפתחות הטכנולוגית של סין כאיום ביטחוני מוחשי על נתונים אישיים בארצות הברית ובעולם המערבי כולו. המטרה האסטרטגית מאחורי המהלך התקשורתי הזה היא לבלום הליכי חקיקה ורגולציה על חברות הטכנולוגיה האמריקאיות עצמן, באמתלה של פטריוטיות וביטחון לאומי מול האיום הסיני. חברות ישראליות, המסתמכות באופן הדוק על ממשקי ה-API של אותן חברות אמריקאיות לפיתוח תהליכי שירות ומכירה, חייבות להבין כיצד מאבקי השליטה הללו עלולים להשפיע על רמת אבטחת הנתונים של הלקוחות שלהן, וכיצד ניתן להיערך לכך תוך בניית ארכיטקטורת נתונים עצמאית המותאמת לחוק הגנת הפרטיות הישראלי.

Build American AILeading the FutureOpenAI
קרא עוד