Skip to main content
Automaziot AI logo
  • Home
  • Blog
  • About
  • Contact
(646) 760-4854Book a Free Consultation
Automaziot AI - AI Automation and Intelligent Agents for Business

AI Automation Experts. We help businesses streamline operations and scale faster with intelligent agents and workflow automation.

USA(646) 760-4854Israel HQ+972-3-7630715info@automaziot.ai
Israel HQ: Ahad Ha'Am 9, Tel Aviv

Quick Links

  • Home
  • About
  • Contact
  • Case Studies
  • Glossary

Our Solutions

  • Lead Management
  • WhatsApp AI Agent
  • Business Automation
  • Smart CRM
  • Automated Scheduling
  • Sales & Support
  • WhatsApp Commerce
  • AI Agents
  • Tech Consulting

Stay Updated

Get the latest insights on AI automation delivered to your inbox.

FacebookInstagramLinkedIn

This site uses Google Analytics and Vercel Analytics to improve your experience. For full details, see our Privacy Policy

© 2026 Automaziot AI. All rights reserved.

Privacy PolicyTerms of ServiceAccessibilityEditorial Policy
AI גרוע בפיתוח משחקים: מה עסקים ילמדו | Automaziot
AI גרוע בפיתוח משחקים: הקו החדש של מיקרוסופט
ביתחדשותAI גרוע בפיתוח משחקים: הקו החדש של מיקרוסופט
ניתוח

AI גרוע בפיתוח משחקים: הקו החדש של מיקרוסופט

אשה שארמה מסמנת גבול לשימוש ב-AI בגיימינג — ומה עסקים ישראליים יכולים ללמוד מזה על אוטומציה איכותית

צוות אוטומציות AIצוות אוטומציות AI
8 במרץ 2026
5 דקות קריאה

תגיות

MicrosoftAsha SharmaPhil SpencerCoreAI ProductVarietyMcKinseyGartnerUnityWhatsApp Business APIZoho CRMN8NHubSpot

נושאים קשורים

#בינה מלאכותית גנרטיבית#WhatsApp Business API ישראל#Zoho CRM#N8N אוטומציה#הטמעת AI בעסקים#גיימינג ובינה מלאכותית
מבוסס על כתבה שלArs Technica ↗·תרגום, סיכום והקשר עסקי על-ידי המערכתאיך אנחנו עובדים

✨תקציר מנהלים

Key Takeaways

  • אשה שארמה, שמונתה אחרי Phil Spencer, אמרה ל-Variety שאין לה סובלנות ל-"AI גרוע" בפיתוח משחקים.

  • לפי McKinsey, כ-65% מהארגונים כבר משתמשים ב-GenAI לפחות בפונקציה עסקית אחת — ולכן שאלת האיכות קריטית.

  • מניסיון יישומי, חיבור סוכן AI ל-WhatsApp, ‏Zoho CRM ו-N8N יכול לחסוך 10-15 שעות עבודה בשבוע אם מגדירים בקרה.

  • בישראל, הטמעה רחבה של AI עם CRM, ניתוב לידים ודוחות יכולה לעלות כ-₪8,000-₪25,000 בהתאם למורכבות.

  • הלקח המרכזי: להתחיל בפיילוט של 14 יום עם KPI ברור, ולא להרחיב אוטומציה לפני שמודדים דיוק ואמינות.

AI גרוע בפיתוח משחקים: הקו החדש של מיקרוסופט

  • אשה שארמה, שמונתה אחרי Phil Spencer, אמרה ל-Variety שאין לה סובלנות ל-"AI גרוע" בפיתוח משחקים.
  • לפי McKinsey, כ-65% מהארגונים כבר משתמשים ב-GenAI לפחות בפונקציה עסקית אחת — ולכן שאלת האיכות...
  • מניסיון יישומי, חיבור סוכן AI ל-WhatsApp, ‏Zoho CRM ו-N8N יכול לחסוך 10-15 שעות עבודה בשבוע...
  • בישראל, הטמעה רחבה של AI עם CRM, ניתוב לידים ודוחות יכולה לעלות כ-₪8,000-₪25,000 בהתאם למורכבות.
  • הלקח המרכזי: להתחיל בפיילוט של 14 יום עם KPI ברור, ולא להרחיב אוטומציה לפני שמודדים...

AI גרוע בפיתוח משחקים: למה ההצהרה של מיקרוסופט חשובה גם מחוץ לגיימינג

AI גרוע בפיתוח משחקים הוא שימוש בכלי בינה מלאכותית שמחליפים שיקול יצירתי אנושי במקום לחזק אותו. במקרה של מיקרוסופט, המסר החדש מגיע אחרי חילופי הנהלה בחטיבת הגיימינג ומשרטט קו ברור: לא כל שימוש ב-AI מייצר ערך, גם אם הוא חוסך זמן או כסף בטווח הקצר.

המסר הזה חשוב עכשיו לא רק לאולפני משחקים. הוא חשוב גם למנהלי מוצר, מנכ"לים ובעלי עסקים בישראל, משום שב-2024 ו-2025 יותר ארגונים מנסים להטמיע AI בקצב מהיר, לעיתים בלי מדדי איכות ברורים. לפי דוח McKinsey מ-2024, כ-65% מהארגונים כבר משתמשים בבינה מלאכותית גנרטיבית לפחות בפונקציה עסקית אחת. דווקא בגלל האימוץ המהיר, השאלה כבר איננה האם להשתמש ב-AI, אלא איפה הוא משפר תהליך — ואיפה הוא פוגע במוצר.

מה זה AI גרוע בפיתוח משחקים?

AI גרוע בפיתוח משחקים הוא שימוש במודלים, כלי יצירה אוטומטיים או מנגנוני הפקה שמייצרים תוכן גנרי, לא עקבי או כזה שפוגע בחוויית המשתמש ובזהות היצירתית של המוצר. בהקשר עסקי, מדובר באותה תופעה שמוכרת גם מחוץ לגיימינג: חברה מכניסה אוטומציה לפני שהיא מגדירה סטנדרט איכות. לדוגמה, אם סטודיו מייצר דיאלוגים, עיצובי דמויות או משימות באמצעות מודל שפה בלי בקרה של כותבים, מעצבים ומנהלי מוצר, הוא עלול לקבל תוכן מהיר יותר אך חלש יותר. לפי Gartner, עד 2026 יותר מ-80% מהיישומים הארגוניים יכללו יכולות GenAI, ולכן שאלת הבקרה הופכת קריטית.

מה אמרה אשה שארמה על AI במיקרוסופט גיימינג

לפי הראיון שפורסם ב-Variety, אשה שארמה, שמונתה להוביל את חטיבת הגיימינג של Microsoft לאחר תקופה של כשנתיים כנשיאת CoreAI Product, אמרה כי אין לה "שום סובלנות ל-AI גרוע" בפיתוח משחקים. לדבריה, "AI היה חלק מעולם הגיימינג זמן רב וימשיך להיות", אך "סיפורים גדולים נוצרים בידי בני אדם". האמירה הזו מגיעה זמן קצר אחרי עזיבתו המפתיעה של Phil Spencer, ומאותתת על ניסיון לנסח מחדש את גבולות השימוש ב-AI באחת מחברות המשחקים החשובות בעולם.

בהודעת הפתיחה שלה, לפי הדיווח, שארמה כתבה כי Microsoft לא תרדוף אחרי "יעילות קצרת טווח" ולא תציף את האקוסיסטם שלה ב-"soulless AI slop". זה ניסוח חריג יחסית למנהלת שהגיעה מתפקיד בכיר מאוד ב-CoreAI, והוא משמעותי משום שהוא לא דוחה AI באופן גורף, אלא מבדיל בין שימוש יצירתי ואחראי לבין ייצור המוני של תוכן חלש. עבור עסקים, זו הבחנה חשובה: המדד האמיתי אינו כמה אוטומציה יש, אלא האם הלקוח מקבל תוצאה טובה יותר, מדויקת יותר ומהירה מספיק בלי פגיעה באמון. בהקשר הזה, כדאי לבחון גם תהליכי אוטומציה עסקית ולא רק כלי GenAI בודדים.

איפה עובר הגבול בין כלי יצירתי לתוכן גנרי?

כאן מתחיל הוויכוח האמיתי בתעשייה. מצד אחד, חברות רבות כבר משתמשות ב-AI ליצירת טיוטות, בדיקות איכות, לוקליזציה, אנימציה, QA ויצירת נכסים חזותיים. מצד שני, מפתחים, שחקנים ואיגודי עובדים חוששים מהחלפת יוצרים אנושיים בתוצרים זולים יותר. לפי סקר של Unity מ-2024, שיעור גבוה ממפתחי המשחקים כבר התנסה בכלי AI כחלק מתהליך העבודה, אבל עצם השימוש לא מבטיח תוצאה טובה. השאלה היא האם AI מקצר שלב מוגדר בתהליך, או שהוא מחליף את השכבה היצירתית שמבדילה בין מוצר בינוני למותג חזק.

ניתוח מקצועי: מה עסקים יכולים ללמוד מהקו של Microsoft

מניסיון בהטמעה אצל עסקים ישראלים, המשמעות האמיתית כאן רחבה הרבה יותר מגיימינג. ההצהרה של שארמה משקפת מעבר מהייפ למדיניות. בשנים האחרונות הנהלות רבות ביקשו "להכניס AI" כמעט לכל מקום: שירות, מכירות, תוכן, תיעוד, תמיכה פנימית וניתוח נתונים. אבל יישום בשטח מראה שכלי בינה מלאכותית עובד טוב רק כאשר מגדירים לו תפקיד צר, מדיד ומחובר למערכת תפעולית אמיתית. לדוגמה, סוכן AI שמסכם שיחות WhatsApp ומעדכן שדות ב-Zoho CRM דרך N8N יכול לחסוך 10 עד 15 שעות עבודה שבועיות לצוות קטן. לעומת זאת, הטמעת צ'טבוט ללא מסד ידע, ללא בקרה אנושית וללא חיבור ל-CRM מייצרת מהר מאוד תשובות לא מדויקות, תסכול לקוחות ופגיעה בשיעור ההמרה. לכן, "AI גרוע" איננו שאלה פילוסופית בלבד; זו שאלה של ארכיטקטורת תהליך, בקרת איכות ואחריות ניהולית. ההבחנה ששארמה מציעה — בין טכנולוגיה שמעצימה בני אדם לבין תוכן חסר נשמה — רלוונטית מאוד גם לעסקים שאינם מפתחים משחקים.

ההשלכות לעסקים בישראל

בישראל, הלקח הזה חד במיוחד משום שעסקים קטנים ובינוניים מאמצים AI תחת לחץ כפול: מחסור בכוח אדם מצד אחד וציפייה לזמינות מיידית מצד שני. במשרדי עורכי דין, סוכנויות ביטוח, קליניקות פרטיות, משרדי תיווך וחנויות אונליין, הפיתוי ברור: לתת לכלי GenAI לנסח, לענות, למיין, לתאם ולסגור תהליכים. אבל בלי הגדרה ברורה של גבולות, העסק מקבל תוצאות לא עקביות. למשל, סוכן שירות ב-WhatsApp שלא מחובר לנתוני לקוח אמיתיים ב-CRM עלול לענות תשובה שגויה בתוך 20 שניות — ועדיין לגרום נזק. לפי נתוני HubSpot, מהירות תגובה משפיעה על מכירות, אבל דיוק ואמינות חשובים לא פחות לאורך זמן.

מנקודת מבט ישראלית, יש גם שכבה רגולטורית ותרבותית. עסקים שפועלים מול לקוחות בישראל צריכים לקחת בחשבון עברית טבעית, ניסוח מותאם מקומית, ולעיתים גם רגישות למידע אישי לפי חוק הגנת הפרטיות והנחיות אבטחת מידע. אם אתם מחברים AI Agents ל-WhatsApp Business API, ל-Zoho CRM ול-N8N, צריך להגדיר הרשאות, לוגים, נקודות אישור אנושיות ושדות שאסור למודל לנחש. פרויקט בסיסי של חיבור WhatsApp ל-CRM עם אוטומציות N8N יכול להתחיל בטווח של אלפי שקלים בודדים לעסק קטן, בעוד הטמעה רחבה יותר עם תסריטי מכירה, ניתוב לידים ודוחות יכולה להגיע ל-₪8,000-₪25,000 ואף יותר, תלוי במורכבות. במקרים כאלה, הבחירה הנכונה איננה "עוד AI", אלא מערכת CRM חכמה שמחוברת לסוכן AI עם בקרה עסקית ברורה.

מה לעשות עכשיו: צעדים מעשיים לעסק ישראלי

  1. בדקו איפה AI אצלכם באמת פוגש לקוח או כסף: שירות, מכירות, תיאום או תיעוד. כל נקודת מגע כזו דורשת KPI ברור כמו זמן תגובה, שיעור סגירה או דיוק מענה.
  2. הריצו פיילוט של 14 יום בלבד עם תהליך אחד מוגדר, למשל סיכום שיחות WhatsApp ל-Zoho CRM דרך N8N. עלות תוכנה חודשית יכולה לנוע בין מאות שקלים בודדים לאלפי שקלים, בהתאם לנפח ו-API.
  3. הגדירו Human-in-the-loop: אילו תשובות סוכן AI שולח לבד, ואילו מועברות לנציג אנושי. זה קריטי במיוחד במכירות, ברפואה, במשפט ובפיננסים.
  4. מדדו איכות לפני היקף: אם שיעור הדיוק נמוך, אל תרחיבו אוטומציה. תקנו את מסד הידע, את ההרשאות ואת חיבורי ה-CRM לפני השלב הבא.

מבט קדימה: פחות הייפ, יותר מדיניות AI

ב-12 עד 18 החודשים הקרובים נראה יותר חברות שמפסיקות למדוד הצלחה לפי כמות הפיצ'רים מבוססי AI ומתחילות למדוד השפעה אמיתית על איכות המוצר, נאמנות לקוחות והכנסות. זה נכון בגיימינג, וזה נכון גם לעסקים בישראל. מי שיבנה תהליכים סביב AI Agents, WhatsApp Business API, Zoho CRM ו-N8N עם בקרה אנושית ויעדי איכות ברורים, ירוויח יתרון תחרותי אמיתי — לא רק כותרת חדשנית.

שאלות ותשובות

FAQ

הכתבה הוכנה על-ידי המערכת בליווי בינה מלאכותית: תרגום, סיכום והוספת הקשר עסקי ישראלי מתוך פרסום מקורי של Ars Technica. קראו על תהליך העריכה שלנו. קישור למקור המקורי.

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

Your information will only be used to contact you and deliver our services. For details, see ourPrivacy Policy and Terms of Service

עוד מ־Ars Technica

כל הכתבות מ־Ars Technica
תביעות נגד OpenAI אחרי ירי המוני: מה עסקים בישראל צריכים ללמוד
ניתוח
לפני 6 ימים
5 דקות
·מ־Ars Technica

תביעות נגד OpenAI אחרי ירי המוני: מה עסקים בישראל צריכים ללמוד

**אחריות דיווח על איומי אלימות ב-AI היא החובה של מפעיל מערכת לזהות סיכון ממשי, להסלים אותו ולפעול בזמן.** לפי התביעות נגד OpenAI, חשבון ChatGPT שסומן לכאורה כאיום אמין יותר מ-8 חודשים לפני ירי קטלני לא דווח למשטרה. עבור עסקים בישראל, הלקח איננו רק מוסרי אלא תפעולי: כל בוט, סוכן WhatsApp או מערכת CRM עם בינה מלאכותית חייבים כללי הסלמה, תיעוד וזמן תגובה מוגדר. ארגונים שמחברים AI ל-WhatsApp Business API, Zoho CRM ו-N8N צריכים לקבוע מראש מתי האוטומציה נעצרת, מי מקבל התראה, ואיך מתעדים את האירוע תחת חוק הגנת הפרטיות.

OpenAIChatGPTThe Wall Street Journal
קרא עוד
רובוטים הומנואידיים למיון מזוודות בשדות תעופה: מה זה אומר לעסקים
ניתוח
28 באפריל 2026
5 דקות
·מ־Ars Technica

רובוטים הומנואידיים למיון מזוודות בשדות תעופה: מה זה אומר לעסקים

**רובוטים הומנואידיים למיון מזוודות הם מבחן אמיתי לשאלה האם אוטומציה יכולה לעבור מסביבת מפעל סגורה למרחב עבודה פתוח ומשתנה.** לפי Japan Airlines, הניסוי בהאנדה יתחיל במאי 2026 ויימשך עד 2028, במטרה להתמודד עם מחסור בכוח אדם על רקע עלייה במספר המבקרים ביפן. עבור עסקים בישראל, הלקח המרכזי אינו לקנות רובוט מחר, אלא לבנות כבר עכשיו שכבת נתונים, API ובקרה תפעולית. ארגונים שמחברים WhatsApp Business API, Zoho CRM ו-N8N יכולים למדוד עומסים, להקצות משימות ולזהות צווארי בקבוק — ורק אחר כך להחליט אם רובוטיקה פיזית מצדיקה השקעה.

Japan AirlinesHaneda AirportWhatsApp Business API
קרא עוד
תמחור GitHub Copilot לפי שימוש: מה זה אומר לעסקים
ניתוח
28 באפריל 2026
5 דקות
·מ־Ars Technica

תמחור GitHub Copilot לפי שימוש: מה זה אומר לעסקים

**תמחור לפי שימוש ב-GitHub Copilot הוא סימן ברור לכך שכלי AI עוברים ממודל מנוי פשוט לכלכלת צריכה אמיתית.** לפי GitHub, החל מ-1 ביוני החיוב יותאם יותר לשימוש בפועל, משום שמשימות שונות צורכות עלויות היסק שונות מאוד. עבור עסקים בישראל, זו תזכורת קריטית: לא מספיק לאמץ AI, צריך למדוד כל אינטראקציה, להבין כמה היא עולה, ואיפה היא באמת מייצרת ערך. מי שמפעיל תהליכים עם WhatsApp Business API, Zoho CRM ו-N8N צריך לבנות בקרה תקציבית, להפעיל AI רק בנקודות רווחיות, ולבחון ROI כבר בפיילוט הראשון.

GitHubGitHub CopilotMicrosoft
קרא עוד
מרכזי נתונים ליד חקלאות: למה מאבקי מים יהפכו לשיקול עסקי
ניתוח
28 באפריל 2026
5 דקות
·מ־Ars Technica

מרכזי נתונים ליד חקלאות: למה מאבקי מים יהפכו לשיקול עסקי

**מרכז נתונים עתיר קירור עלול להפוך גם לסוגיית מים עסקית.** זה הלקח המרכזי מהמאבק במחוז Tazewell באילינוי, שם התנגדות תושבים וחקלאים לפרויקט דאטה סנטר במרחק כ-8 מייל מחווה חקלאית הובילה לביטולו. עבור עסקים בישראל, המשמעות רחבה יותר מהנדל"ן המקומי של הפרויקט: ככל ששימושי AI, ענן ו-API גדלים, כך גדלה גם התלות בתשתיות פיזיות עם מגבלות מים, חשמל ורישוי. מי שמפעיל WhatsApp Business API, ‏Zoho CRM ו-N8N צריך לבחון לא רק מחיר ו-SLA, אלא גם יתירות, מיקום עיבוד, וסיכוני ספק. זהו כבר נושא תפעולי ותקציבי, לא רק סביבתי.

Michael DeppertTazewell CountyIllinois
קרא עוד

עוד כתבות שיעניינו אותך

לכל הכתבות
סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות
ניתוח
לפני 11 שעות
5 דקות
·מ־Wired

סינון קורות חיים באמצעות AI: כשהאלגוריתם פוסל מועמדים בטעות

האם אלגוריתם גיוס שלל מכם משרה ראויה? תחקיר חדש של מגזין WIRED חושף את סיפורו של סטודנט לרפואה, שגילה כי מערכות סינון קורות חיים אוטומטיות (ATS) פסלו את מועמדותו להתמחות בשל היעדרות רפואית שהוזנה במונח העמום "סיבות אישיות". על רקע ההצפה של מחלקות משאבי האנוש בפניות המיוצרות בעצמן על ידי מודלי שפה, חברות רבות ממהרות לאמץ פתרונות סינון מהירים ללא הבנה מלאה של מנגנון הפעולה שלהם. המקרה ממחיש את הסכנה בהסתמכות עיוורת על 'קופסאות שחורות' לקבלת החלטות גיוס מהותיות. עבור עסקים בישראל, בהם קורות חיים מכילים תכופות פערי זמן עקב שירות צבאי ושירות מילואים, המסקנה ברורה: מערכות אוטומציה מתקדמות הן אכן הכרח ניהולי, אך חובה לשלב בהן שקיפות מלאה ובקרה אנושית מדוקדקת כדי למנוע אפליה בלתי מכוונת ופספוס של מועמדים איכותיים.

Chad MarkeyThalamusCortex
קרא עוד
המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון
ניתוח
לפני 11 שעות
4 דקות
·מ־MIT Technology Review

המהפכה של סוכני AI אישיים: כשהבוט מייצג את הלקוח מול הארגון

המעבר של כלי בינה מלאכותית מחיפוש פסיבי לפעולה אקטיבית עתיד לשנות את דרכי ההתקשרות של הציבור מול מוסדות ועסקים. על פי ניתוח המבוסס על נתוני משרד אריק שמידט, השלב הבא במהפכת ה-AI הוא 'סוכנים אישיים' שיקבלו החלטות, ייצגו אינטרסים של אזרחים ולקוחות, ויבצעו פעולות עצמאיות כמו ניסוח מסמכים וביטול שירותים. עבור עסקים בישראל, מדובר באתגר טכנולוגי ומשפטי מורכב. כאשר רוב הפניות יגיעו מסוכנים אוטומטיים במקום מבני אדם, ארגונים יצטרכו להתאים את מערכות ה-CRM והאוטומציה שלהם (כדוגמת N8N ו-Zoho), ליישם מנגנוני אימות זהות קפדניים, ולעמוד בדרישות חוק הגנת הפרטיות, כדי לאפשר תקשורת אמינה ומאובטחת בין מערכות החברה לבוטים של הלקוחות.

Andrew SorotaJosh HendlerOffice of Eric Schmidt
קרא עוד
סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple
ניתוח
לפני 3 ימים
5 דקות
·מ־TechCrunch

סוכני AI לפיתוח קוד: הזינוק של Replit והעימות מול Apple

פלטפורמת פיתוח הקוד מבוססת ה-AI עשתה זינוק חסר תקדים מהכנסות של 2.8 מיליון דולר ב-2024 למסלול הכנסות שנתי (ARR) של מיליארד דולר. הנתונים שנחשפו בכנס TechCrunch מצביעים על כך שארגוני ענק מאמצים סוכני AI כמחליפים למערכות נתונים מסורתיות, תוך הגעה לשימור לקוחות של עד 300%. בעוד מתחרות כדוגמת Cursor רושמות הפסדים גולמיים ומחפשות עסקאות רכישה מצד תאגידים כמו SpaceX, חברת Replit מציגה מודל רווחי המבוסס על סביבות ענן מבודדות. הנתונים מדגישים את החשיבות של אבטחת מידע בעבודה עם מחוללי קוד ואת המאבק המחריף בין ספקיות התשתית לחברות כמו Apple סביב השליטה בהפצת אפליקציות שנוצרו על ידי בינה מלאכותית.

ReplitAmjad MasadCursor
קרא עוד
המאבק על תודעת ה-AI: הקמפיין הסמוי של ענקיות הטכנולוגיה בארה"ב
ניתוח
לפני 4 ימים
5 דקות
·מ־Wired

המאבק על תודעת ה-AI: הקמפיין הסמוי של ענקיות הטכנולוגיה בארה"ב

תעשיית הבינה המלאכותית בארצות הברית לא מסתפקת רק בפיתוח מודלי שפה, אלא משקיעה מאות מיליוני דולרים כדי לעצב את דעת הקהל העולמית. דיווח של מגזין WIRED חושף כיצד ארגון המקושר לבכירי החברות OpenAI ו-Palantir, מממן משפיעני רשת בסכומים של כ-5,000 דולר לסרטון במטרה להציג את ההתפתחות הטכנולוגית של סין כאיום ביטחוני מוחשי על נתונים אישיים בארצות הברית ובעולם המערבי כולו. המטרה האסטרטגית מאחורי המהלך התקשורתי הזה היא לבלום הליכי חקיקה ורגולציה על חברות הטכנולוגיה האמריקאיות עצמן, באמתלה של פטריוטיות וביטחון לאומי מול האיום הסיני. חברות ישראליות, המסתמכות באופן הדוק על ממשקי ה-API של אותן חברות אמריקאיות לפיתוח תהליכי שירות ומכירה, חייבות להבין כיצד מאבקי השליטה הללו עלולים להשפיע על רמת אבטחת הנתונים של הלקוחות שלהן, וכיצד ניתן להיערך לכך תוך בניית ארכיטקטורת נתונים עצמאית המותאמת לחוק הגנת הפרטיות הישראלי.

Build American AILeading the FutureOpenAI
קרא עוד