| 10:52:00 | ◀︎ | מצפן ה-AI של ישראל: מצב אימוץ ה-AI בארגון – ומה לעשות מחר בבוקר | |
| 11:12:53 | ◀︎ | בכיר CIA בעבר: "מנהל אבטחה וה-CTO חייבים משקפיים עסקיים" | |
| 11:47:34 | ◀︎ | איך ביג דאטה מרעילה את אסטרטגיית ה-AI שלכם | |
| 11:55:51 | ◀︎ | אורקל: הרווח הנקי זינק – אך חששות ה-AI והתחזית הפילו את המניה | |
| 12:25:01 | ◀︎ | לינוי יחזקאל אלבו מונתה למנהלת כללית בישראל בחברת יומנז | |
| 13:04:32 | ◀︎ | איום בסנקציות: ארה"ב דורשת מענקיות ה-AI אחריות למוצריהן | |
| 14:45:56 | ◀︎ | חמאס מרגל אחר ממשלות ודיפלומטים במזרח התיכון | |
| 15:01:07 | ◀︎ | עומרי כספי משלים גיוס של 100 מיליון ד' לקרן אופורטוניטי | |
| 15:26:59 | ◀︎ | גיוס של 21 מ' ד' לסטארט-אפ האד, שמסייע בכתיבת קוד | |
| 15:32:59 | ◀︎ | ר"ג תטמיע פלטפורמה של סרוויס נאו לניהול השירות והרכש העירוני | |
| 16:07:53 | ◀︎ | "ב-2026 ה-AI תשנה את כללי המשחק העסקיים" | |
| 16:12:23 | ◀︎ | סקירה: נולד למוזיקה ועושה את זה טוב | |
| 16:54:00 | ◀︎ | עריכת סרטונים משופרת ב-Google Photo | |
| 17:04:24 | ◀︎ | מיהי ענקית ה-IT החדשה בשווי 13 מיליארד ש' שמטלטלת את הבורסה? | |
| 17:23:26 | ◀︎ | משלחת מארגנטינה ביקרה במעבדת החדשנות סיטיזון בתל אביב |
זמני השבת
| עיר | כניסה | יציאה |
|---|---|---|
| ירושלים | 17:11 | 18:23 |
| תל אביב | 17:25 | 18:25 |
| חיפה | 17:16 | 18:25 |
| באר שבע | 17:28 | 18:26 |
הכותרות שעניינו הכי הרבה גולשים בדף זה
11/12/25 17:04
8.33% מהצפיות
מאת אנשים ומחשבים
עולם הטק הישראלי חווה טלטלה משמעותית בעקבות השלמת איחוד הכוחות בין שתיים מחברות ה-IT הבכירות במשק – מטריקס ומג'יק. המיזוג, אשר נחשב כאירוע הגדול ביותר שנעשה אי פעם בתחום ה-IT בישראל, הגיע לחתימה סופית לאחר שבעלי המניות בשתי החברות נתנו את אישורם הרשמי, וזאת בתום חודשים של משא ומתן בין הצדדים.
האיחוד בין החברות נועד לחזק באופן משמעותי את מעמדן הן בשוק המקומי והן בזירה הבינלאומית, וכן לאפשר להן להציע ללקוחותיהן מערך רחב ומגוון יותר של פתרונות טכנולוגיים מתקדמים.
גיא ברנשטיין,מנכ"ל פורמולה ומג'יק, ויו"ר הדירקטוריון של מטריקס. צילום: יח"צ
הליך המיזוג יהפוך את מג'יק לחברה פרטית לחלוטין בבעלותה של מטריקס, והיא תימחק מהמסחר בבורסה לניירות ערך. שתי החברות הממוזגות נמצאותכעת בשליטת חברת פורמולה מערכות.
מבחינה תאגידית, גיא ברנשטיין ממלא תפקיד כפול כמנכ"ל פורמולה ומג'יק, ובנוסף משמש כיושב ראש הדירקטוריון של מטריקס.
החברה המאוחדת צפויה להפוך לאחת החברות הציבוריות הגדולות בתחום הטכנולוגיה, כאשר שווי השוק הכולל שלה צפוי לחצות את רף 13 מיליארד השקלים. שווי זה נבנה על בסיס נתוני מטריקס, ששווי השוק שלה עומד על 9.1 מיליארד שקל, לאחר שרשמה עלייה חדה של 74% מתחילת השנה; יחד עם שווי השוק של מג'יק, הניצב על 4.1 מיליארד דולר, שגם הוא הציג זינוק מרשים של 96% בבורסה מתחילת השנה.
11/12/25 10:52
7.5% מהצפיות
מאת אנשים ומחשבים
במהלך השנה האחרונה ליווינו עשרות ארגונים, ובכל פגישה עם מנכ"ל, מנמ"ר או סמנכ"ל חדשנות חזר אותו משפט בניסוחים שונים: "אין לי מושג איפה אנחנו באמת עומדים באימוץ AI".
מצב אימוץ ה-AI בארגון – ומה לעשות מחר בבוקר
ואז, בפגישה אחת עם מנהל באחת החברות הגדולות במשק, נאמר משפט שהפך את כל התובנות הללו לכיוון ברור: "אני לא צריך עוד דו"ח. אני צריך מראה". מראה – לא מצגת. מראה – לא תחזית. מראה שמראה את האמת. שם התחיל מצפן הבינה.
הרעיון לא נולד ביום. הוא נולד מתוך עשרות שיחות עומק, פרויקטים מורכבים ומאות מפגשים עם מנהלות ומנהלים. כולם חיפשו אותו הדבר: נקודת ייחוס אמיתית. בלי רעש, בלי סיפורי הצלחה שאינם רלוונטיים, בלי נתונים מיושנים.
כך נבנה מצפן שמחבר שלושה מקורות בינה: בינה אנושית – ניסיון ניהולי של עשרות שנים של מומחי שטראוס אסטרטגיה מהשטח.
בינת מומחים – תובנות מפרויקטים משמעותיים בארגונים מהגדולים בישראל.
בינה מלאכותית (GenAI) – מנגנונים שמזקקים אלפי תובנות למפת בשלות חיה, מתעדכנת ונגישה. התוצאה: מצפן חי, שמציג את הדופק האמיתי של אימוץ ה-AI בישראל.
150+ מנהלים בכירים. 44 שאלות. אלפי תובנות. תמונה אחת חדה
ציפינו לכמה עשרות משתתפים. קיבלנו יותר מ-150 מנהלות ומנהלים מהמגזרים המובילים במשק:
פיננסים, ממשלה, בריאות, טכנולוגיה, תעשייה, אנרגיה, קמעונאות ועוד. הם ענו על 44 שאלות עומק — ושיתפו הכל: הצלחות, כשלים, חסמים, דילמות, מהלכים אמיצים, וגם טעויות שהם מצטערים עליהן. המידע הזה, יחד עם שכבות הבינה שלעיל, יוצר מאגר תובנות שאין שני לו.
לא בישראל, ולא בעולם העסקי בכלל.
המצפן מהווה עבור המנהלים כלי לקבלת החלטות – לא עוד מסמ קריאה. במצפן כל מנהל יכול לראות: בנצ'מרק חי מול 150+ מנהלים דומים: איפה אתם ביחס לשוק?
מגמות שמתרחשות עכשיו, לקראת 2026.
ניתוחים לפי מגזר, גודל ארגון ותפקיד – מה רלוונטי עבורכם באמת.
זיהוי נקודות עיוורון – המקומות שמנהלים נוטים לפספס. 2026 תהיה שנת ההפרדה בין מי שמדברים על AI – למי שמיישמים AI
בזמן שהטכנולוגיה רצה, הפער בין ארגונים מתקדמים לארגונים מדשדשים הולך ומתרחב. מנהלים שלא מודדים את מצבם האמיתי ועובדים על בסיס תחושת בטן – ב-2026 – תחושת בטן תהיה מתכון בדוק לפערים קשים.
מצפן הבינה נותן שלושה דברים שמנהלים צריכים יותר מתמיד: שקיפות, מציאות וכיוון פעולה ברור.
הכלי מאפשר לנווט בתוך מורכבות, להתרכז במהות ולהחליט החלטות אמיצות על בסיס נתונים והבנה מערכתית – לא על בסיס רעש.
אם אתם מובילים טרנספורמציית AI, אחראים על דאטה או תהליכי ליבה – אני מזמין אתכם להסתכל במראה ולראות את מצב הארגון כפי שהוא באמת, להבין איפה אתם ביחס לשוק ולהחליט בצורה חדה מה צריך לקרות מחר בבוקר. זוהי בדיוק מטרת המצפן.
הכותב הוא יו"ר שטראוס אסטרטגיה.
11/12/25 11:47
7.5% מהצפיות
מאת אנשים ומחשבים
בעשור האחרון חיה תעשיית ההיי-טק לפי מנטרה פשוטה: לאסוף הכל. לשמור הכל. אחר כך נבין מה לעשות עם זה.
ולזמן מה זה באמת עבד. עם ארכיטקטורת Lakehouse וכלים כמו Snowflake, Databricks ו-S3, האחסון הפך כמעט לחינמי. אבל במקום לפתור את בעיית הדאטה – יצרנו אחת חדשה: השמנת יתר של דאטה. ארגונים שומרים היום יותר מפי שלושה דאטה לעומת 2019 – אבל קצב קבלת ההחלטות לא השתפר. אנחנו אוגרים מידע מהר יותר משאנחנו מסוגלים להשתמש בו.
זו לא רק בעיית עלות. זו בעיית מטבוליזם.
הבופה פתוח – אבל אנחנו גוועים
המהפך הפסיכולוגי התרחש כשהאחסון בענן הפך זול יותר מפיצה. אף אחד כבר לא מרגיש צורך למחוק לוגים, לנקות סכימות או לחשוב פעמיים על מדיניות שמירה. הכל זורם ל-Lakehouse "ליתר ביטחון". אבל הדיאגרמות היפות מסתירות את האמת: האחסון עצמו הוא רק חלק קטן מהעלות. השאר מגיע מהעתקים, גיבויים, תוכנה, קומפיוט, ובעיקר – שעות האדם שמנסות להבין את הבלאגן.
זוהי Dark Data: דאטה לא מנוהלת, לא מתועדת, לא בשימוש. היא סותמת מערכות, מאיטה צוותים ויוצר חובות תפעוליים עצומים.
משחקי הרעב של ה-LLM
Dark Data הייתה תופעה בעייתית גם בתקופת הדשבורדים. אבל בעידן ה-AI היא הופכת לחיסרון קטלני. רבים עדיין מניחים ש-"ותר דאטה = AI חכמה יותר", ולכן דוחפים לכל מאגר אפשרי כל PDF, אימייל, מסמך וטיקט. המחקר מראה את ההפך: ביצועי AI נמדדים באיכות – לא בכמות. סט של 100TB נקי ומסודר ינצח כל פעם 1PB מבולגן: זול יותר להרצה, מהיר יותר לאימון ומייצר הרבה פחות הזיות.
כשמאכילים LLM בדאטה סותרת, מיושנת או כפולה – הוא לא מתעלם מהרעש, הוא מנסה ליישב אותו. כך נוצרת הזיה בביטחון גבוה. ה-Dark Data שלכם הופכת לווקטור הזיה, שמרעיל את המודלים שלכם בזבל ארגוני.
קריסת הטורף-נטרף
כדי להבין מה קורה, עדיף לחשוב בביולוגיה, לא במדעי המחשב.
הנטרף: הדאטה שלכם. הטורפים: כלי האנליטיקה ומודלי ה-AI.
באקו-סיסטם בריאה יש איזון. הטורפים אוכלים את הנטרף בקצב הנכון. אבל כשהאוכלוסייה של הנטרף מתפוצצת מעבר ליכולת העיבוד – המערכת קורסת. לא בגלל מחסור במזון, אלא בגלל כאוס. צוותי דאטה היום מבזבזים מעל 40% מהזמן רק על איתור הטבלה הנכונה לפני שיוכלו לנתח אותה. הם "גוועים" בסביבה שיש בה יותר מדי מזון.
מודדים את הבריאות המטבולית
מנקודת מבט של משקיע, לא מעניין אותי כמה גדול ה-Data Lake שלכם – אלא איך הגוף שלכם מעכל אותו. צריך להפסיק למדוד הצלחה לפי "כמה פטה-בייטים שמרנו", ולהתחיל למדוד קיימות דאטה: היחס בין דאטה פעילה, שימושית ואמינה – לבין רעש מת.
אם בארגון יש 10,000 טבלאות ורק 1,200 בשימוש אמיתי – זה יחס פעילות של 12%. שאר 8,800 הטבלאות הן עשבייה שמחניקה את השטח. הן יוצרות:
חוב תפעולי: מהנדסים מובילים מתחזקים פייפליינים לדאטה שאף אחד לא משתמש בו.
חוב קוגניטיבי: אנליסטים טובעים בגרסאות, כפילויות והגדרות לא עקביות.
סיכון רגולטורי: לרגולטור לא אכפת אם השתמשתם בדאטה – אם אתם שומרים אותה אתם אחראים עליה. Dark Data היא פוטנציאל לתביעה.
הפתרון: ממנטליות של אגירה למנטליות מטבולית
עידן ה"לשמור הכל" נגמר. העתיד הוא ניהול מטבולי אוטונומי: מערכות שמזהות ומארכבות דאטה שלא נגעו בה חודשים
כלים שמתריעים על הגדרות לא עקביות ותובנות שהתיישנו
פייפליינים שמנקים ומדללים דאטה באופן רציף
תרבות ארגונית שמתוגמלת על בהירות ואיכות, לא על נפח זה הזמן להפסיק לחגוג מסת דאטה – ולהתחיל לחגוג שריר דאטה. אם הדאטה לא מזינ טורף אנליטי או מודל AI – היא צריכה לצאת מהמערכת. החברות שישלטו במטבוליזם של הדאטה שלהן ולא ברמת האגירה יהיו אלה שהאסטרטגיות ה-AI שלהן באמת יעבדו.
הכותב הוא שותף וראש תוכנית הדאטה בחץ ונצ’רס.
11/12/25 11:12
6.67% מהצפיות
מאת אנשים ומחשבים
"כל מנהל.ת אבטחה צריך.ה לשאול את עצמו.ה איך הפריצה תשפיע על העסק עצמו – ולא על רשת התקשורת ומערך המחשוב. המאבק בין הרעים לטובים בסייבר הוא אינסופי. במשחק הנצחי של חתול ועכבר, יש גם ימים שהרעים מנצחים. איני יודע מי ינצח בסוף, אם בכלל. המאבק נמשך, רק האמצעים השתנו, כי הבינה המלאכותית הייתה זולה יותר. למגינים אסור לנוח לרגע, עליהם לעמוד על המשמר תמיד, גם ב-יום שישי בחצות. הם תמיד צריכים לשאוף להיות צעד קדימה לפני ההאקרים, דרוכים. כדי להצליח במשימתם, מנהל אבטחה וה-CTO חייבים להרכיב משקפיים עסקיים", כך אמר בוב פלורס, מייסד ו-CTO של Applicology.
פלורס השתתף ב-Cyber week, שבוע הסייבר השנתי, שעורך המרכז למחקר סייבר בינתחומי ע"ש בלווטניק באוניברסיטת תל אביב, בשיתוף מערך הסייבר הלאומי, משרד הכלכלה ומשרד החוץ.
הקריירה של פלורס עברה בצמתים שבין אבטחת מידע והגנת סייבר, מודיעין וטכנולוגיה מתקדמת. הוא עבד בסוכנות הביון המרכזית האמריקנית, ה-CIA, שלושה עשורים, עד פרישתו ב-2009: וכיהן במנהלות המודיעין, התמיכה והמבצעים בסוכנות. בתפקידו האחרון שימש פלורס כ-CTO הראשון של ארגון הביון ועל עבודתו שם הוא אומר "שפתיי חתומות".
"לפעול בהנחה שבטוח יש פירצה ואולי כבר התרחשה פריצה"
"יש ביקורת לא מעטה על ממשל טראמפ ונטען נגדו שהוא מזניח את היבטי הגנת הסייבר. עמדתי בעניין יותר מורכבת והיא: 'כן ולא'. הממשל רוצה יכולות שנוצרו בארה"ב, במקום יבוא מסין, כדי לחזק את הכלכלה המקומית מחד וגם להעלות את רף האבטחה מאידך. מצד שני, הם לא הקדישו מספיק תשומת לב לגידול בכמות, בהיקף ובמורכבות של סיכוני ואיומי הסייבר. הממשל צמצם במשאבים ובכוח האדם של כמה סוכנויות הגנה, ולעתים עשה יותר מדי קיצוצים ובזמן הלא נכון. זה מעניק הזדמנויות לרעים", ציין פלורס.
"ההיערכות העתידית", אמר, "צריכה להיות במחשבה של הגרוע מכל, המקבילה של 'המטוס יתרסק'. יש לפעול בהנחה שבטוח יש פירצה ואולי כבר התרחשה פריצה. יש להתכונן להכיל את האירוע, לגדר אותו ולמנוע את ההתפשטות שלו. יש להכיל את האירוע לטובת יותר חוסן וכדי לא לאבד את העסק. שקיפות היא עוד היבט חשוב: מנהל בעבר אמר לי: 'אל תפחד להביא לי חדשות רעות'. המשפט הזה נכון תמיד".
"ישנם היבטים שאינם בשליטת מנהלי האבטחה", ציין. "אין 'כדור כסף' אחד שעונה לכלל איומי הסייבר. לפעמים הבעיה בשרשרת האספקה. אם ספקים צד ג' לא שקופים מולך, כולכם תפסידו בסייבר".
"באחרונה, "סיפר, "היו כמה השבתות ונפילות אצל ענקיות טק: ההנחה שהן לא ייפלו לעולם – שגויה ומגוחכת. כל ארגון עלול למצוא עצמו מושבת, בגלל סייבר או תקלה. כדי לבנות חוסן תפעולי ובתוכו חוסן סייבר, עליך לחשוב עם הצוות שלך ולצפות את הבלתי צפוי, להבין מה הסיכון. אבל בטבע האנושי, לבסוף משהו יתפספס. פה, סוכן ה-AI ש'יושב על השולחן' ליד בני האנוש, בהחלט יכול להזכיר 'מה עם זה וזה?'. AI תעזור למגינים לשאול את השאלות שגם ההאקרים שואלים: 'איך לפרוץ לארגון בדרך חדשה ומפתיעה?'. זה לעולם לא ייגמר, כי כעת הגיעה בינה מלאכותית והכול רץ מהר יותר".
פועלות ללא לאות. מדינות ציר הרשע בסייבר – סין, איראן, צפון קוריאה ורוסיה. צילום: שאטרסטוק
האיום הפנימי
"האיום הכי גדול לארגון הוא זה הפנימי", אמר בכיר הביון לשעבר. "לעובדים יש ידע והם עלולים להסב יותר נזק. איום פנימי הוא עובד שפוטר והוא נקמן, או שהופעלו עליו שקרים ומניפולציות, או שהוא עובד טוב, ששגה. הממורמר הוא הכי מסוכן אבטחתית".
לדבריו, "האווירה התרבותית בארגון תקבע הכל, עם חינוך ותרגול תמידיים. למשל, עובדת בכניסה לארגון עומדת לידך ומבקשת ממך לפתוח לה את הדלת. אחד יפרש את המעשה כמנומס וג'נטלמני והשני יזדעק בגלל הפרה בוטה של כללי האבטחה".
מודיעין איומים – כמה שיותר
"אני מאד מאמין במודיעין איומים", המשיך ואמר פלורס. "המלצתי היא שלא להגביל את עצמכם, קנו וצרכו כמה שיותר מודיעין איומים. אני מעודד מנהלי אבטחה, גם בארגונים מתחרים – לשתף מידע. זה מעניק עוד נקודת מבט ותמונה גדולה".
"סייבר בגיבוי מדינות חי וקיים", אמר. "המניע של רוסיה – כספי. סין פועלת לריגול ולגניבת קניין רוחני. צפון קוריאה מבודדת, ובשל העיצומים נגדה זקוקה נואשות למזומנים. הרעים של איראן הם 'טובים' כרעים, ועוסקים יותר בשיבוש ומעט בריגול. לפני שנים איתרנו האקרים סינים שישבו במערכת החשמל של ארה"ב. הם לא פעלו לשבש, אלא שהו בחשאי, להבנת פעילות המערכות, ואולי, לפיתוח נוזקה עתידית".
בסוף השבוע יבקר פלורס בירושלים, אצל בתו שעלתה ארצה. הוא סיכם את דבריו באומרו כי "ישראל היא השוק הכי חדשני בעולם מסיבות רבות: ישראל קטנה, כולם מכירים את כולם, המדינה תחת מתקפה, ויש זליגת ידע חיובית מהצבא לאזרחות. האיומים הם כורח, ויוצרים ומניעים בעקביות חדשנות. זה יפה ואני אוהב את זה".
11/12/25 11:55
6.67% מהצפיות
מאת אנשים ומחשבים
חברת אורקל (Oracle) פרסמה את התוצאות העסקיות שלה לרבעון שננעל ב-30 בנובמבר 2025 ולתשעת החודשים שננעלו בתאריך זו. במהלך אותם תשעה חודשים – ההכנסות גדלו ב-13.0%, ל-30.98 מיליארד דולר; הרווח התפעולי גדל ב-10.0%, ל-9.01 מיליארד; והרווח הנקי רשם גידול חד של 49%, ל-9.06 מיליארד.
במהלך הרבעון המדווח ההכנסות גדלו ב-14%, ל-16.06 מיליארד דולר. מתוך סכום כללי זה, ההכנסות ממכירת שירותים גדלו ב-7%, ל-1.43 מיליארד, וההכנות מכירת מוצרים גדלו ב-14.7%, ל-12.76 מיליארד. ההוצאות התפעוליות הרבעוניות גדלו ב-15.0%, ל-11.33 מיליארד; הרווח התפעולי גדל ב-12.0%, ל-4.73 מיליארד. חבות המס פחתה ב-14%, ל-207 מיליון דולר, והרווח הנקי זינק ב-98%, ל-6.14 מיליארד. הזינוק נבע בין השאר מהחזר מס של 1.1 מיליארד. הרווח הנקי למניה מדולל גדל ב-90.9%, ל-2.1 דולר.
מדוע הרווחים החזקים לא הספיקו?
אף על פי נתון הרווח הנקי המרשים של 6.14 מיליארד דולר, והרווח המתואם של 2.26 דולר למניה – שהיה גבוה מתחזיות האנליסטים שעמדו על 1.64 דולר – מניית אורקל צנחה עד 10% במסחר המאוחר בוול סטריט, ופתחה את המסחר בפרנקפורט בירידה של כמעט 12%.
הירידה הזו במניות של אורקל ושל חברות טכנולוגיה ו-AI קשורות נוספות גררה אחריה ירידות בחוזים העתידיים של וול סטריט, כאשר חוזה נאסד"ק 100 העתידי נחתך ב-1.4%.
הגורם המרכזי לאכזבת המשקיעים נבע מכך שנתוני הרווחים היו מעורבים והושפעו מאירוע חד-פעמי, ובמקביל התחזיות לצמיחה עתידית וההוצאות המתוכננות עוררו ספקות בנוגע ליכולתה של אורקל להצדיק את השקעותיה ב-AI. Oracle [ $ORCL ] earning results and its effect on the neocloud sector like $NBIS & $IREN:
Oracle reported earnings with a beat on EPS and a record backlog but, dropped 12% after hours.
Oracle is down 39.8% from September 11th highs and brought down the sector with it.
Here's… https://t.co/0FMkw59WlZ pic.twitter.com/jXOAO92qnP
— Serenity (@aleabitoreddit) December 11, 2025 רווח חד-פעמי והחמצת יעדים
אורקל ציינה כי הרווחים, הן המתואמים והן הלא מתואמים, היו גבוהים יותר הודות לרווח חד-פעמי לפני מס בסך 2.7 מיליארד דולר, שהושג ממכירת אחזקותיה במתכננת השבבים Ampere Computing.
דאג קרינג, מנהל הכספים של החברה, אמר כי "היה לנו רבעון של עליות חזקות ברווחים שלנו, שהושפע מאד ממכירת חלקנו בחברת Ampere, שהניב לנו החזר מס של 2.7 מיליארד דולר".
על אף נתוני הרווח למניה הגבוהים מהצפוי, נתוני ההכנסות בפועל לרבעון שהסתיים עדיין היו נמוכים מהאומדן הממוצע של אנליסטים: אורקל דיווחה על הכנסות כוללות של 16.06 מיליארד דולר, לעומת תחזית של 16.21 מיליארד דולר. כמו כן, ההכנסה התפעולית המותאמת של 6.7 מיליארד דולר החמיצה את יעד וול סטריט שעמד על 6.8 מיליארד דולר.
תחזיות מאכזבות בצד עלייה בהוצאות ה-AI
החמצה קריטית עוד יותר הייתה בתחזיות שפרסמה אורקל לרבעון הפיסקאלי השלישי, שהחמיצו את ציפיות האנליסטים:
אורקל צפתה רווח מותאם של 1.64 עד 1.68 דולר למניה – מתחת להערכת האנליסטים, שעמדה על 1.72 דולר למניה. גם תחזית צמיחת ההכנסות של אורקל לרבעון השלישי, שבין 16% ל-18%, נפלה מזו שחזו האנליסטים, שציפו לצמיחה של 19.4% ולהכנסות של 16.87 מיליארד דולר.
במקביל לתחזיות החלשות, אורקל הודיעה כי ההוצאות ההוניות המתוכננות לשנת הכספים 2026 צפויות להיות גבוהות ב-15 מיליארד דולר, בהשוואה להערכה הקודמת של 35 מיליארד דולר. עלייה חדה זו בהוצאות, שנועדה "לרדוף" אחר לקוחות מחשוב ענן בתחום ה-AI, הובילה ל"ספקות גוברים בנוגע לאופן שבו אורקל תכננה להמיר את ההוצאות העצומות שלה ב-AI להכנסות". אנליסט eMarketer, ג'ייקוב בורן, ציין כי "החמצת הכנסות זו תחמיר ככל הנראה חששות בקרב משקיעים זהירים ממילא לגבי עסקת ה-OpenAI שלה וההשקעה האגרסיבית שלה ב-AI".
חוסר ודאות נוסק בקרב המשקיעים
החששות הועצמו גם בשל העובדה ש-אורקל הנפיקה מיליארדי דולרים באגרות חוב ושטרות השנה כדי לממן את בניית ה-AI שלה. מליסה אוטו, ראש מחקר ב-Visible Alpha של S&P גלובל, ציינה כי "העלייה בהוצאות ההוניות והצרכים הלא ברורים של החובות גורמים לחוסר ודאות בקרב המשקיעים".
לארי אליסון, מייסד החברה, היו"ר ומנהלה הטכני, הסביר את מכירת חלקה ב-Ampere כשינוי אסטרטגי, וקבע כי "אנחנו כבר לא חושבים שזה אסטרטגי עבורנו להמשיך לתכנן, לייצר ולהשתמש בשבבים משלנו במרכזי הנתונים בענן שלנו".
לדבריו, "בשנים הבאות צפויים שינויים רבים בתחום הבינה המלאכותית ואנו מתכוונים להתכונן לקראת זה". הוא הדגיש כי אורקל תמשיך לרכוש את השבבים העדכניים של אנבידיה (Nvidia), אך הבהיר: "אנחנו צריכים להיות מוכנים ומסוגלים לפרוס כל שבב שהלקוחות שלנו ירצו לקנות".
בתגובה לשאלות על מימון הדאטה סנטרים, הסביר מנכ"ל החברה, קליי מאגויארק, כי הם פועלים על מודלים חדשים, הכוללים מקרים שבהם לקוחות יכולים "להביא את השבבים שלהם בעצמם, ובמודלים אלה, אורקל כמובן לא צריכה לשאת בהוצאות הוניות מראש".
בהכנת הכתבה הש/תתפה גלי פיאלקוב
11/12/25 12:25
6.67% מהצפיות
מאת אנשים ומחשבים
חברת יומנז (Humanz) הפועלת בתחום יוצרי התוכן והמשפיענים, עם פלטפורמת AI מתקדמת, המייעלת את שיתוף הפעולה בין מותגים ליוצרים, מינתה את לינוי יחזקאל אלבו לתפקיד מנהלת כללית בישראל לאחר כחמש שנות פעילות בחברה במגוון תפקידי מפתח. במסגרת התפקיד תנהל יחזקאל אלבו את כלל הפעילות בשוק הישראלי, הכולל כ-100 לקוחות וכ-40 עובדים ועובדות בארץ.
יחזקאל אלבו, בת 31 מרמת גן, היא בוגרת תואר ראשון בתקשורת וניהול במכללה למינהל, שאותו סיימה בהצטיינות ובמהלכו התקבלה לתוכנית התמחות לסטודנטיות וסטודנטים בודדים, שכללה 100 שעות התמחות בחברת יומנז. בסיום ההתמחות היא התקבלה לתפקיד Customer Success וזמן קצר לאחר מכן קודמה לניהול מחלקת הפיתוח העסקי ולקוחות ה-Self-Service. במקביל לפעילותה בחברה, שירתה כקצינת סנכרון במילואים בחיל האוויר במשך כחצי שנה עם תחילת המלחמה.
בשנה האחרונה שימשה יחזקאל אלבו כסמנכ"לית לקוחות של השוק הישראלי, תפקיד שבו הובילה את העבודה מול המותגים הגדולים בישראל ואת הצמיחה המסחרית בשוק המקומי. בימים אלה יחזקאל אלבו מתמנה לתפקיד General Manager Israel
לינוי יחזקאל אלבו מסרה: "יומנז היא לא פחות מהבית המקצועי שלי. יש לי את הזכות לגדול בתוך חברה שמאמינה באנשים שלה ומייצרת הזדמנויות אמיתיות. אני מתרגשת להמשיך להוביל את השוק הישראלי בתקופה שבה תחום היוצרים והמשפיענים עובר שינוי עמוק, ולחזק את מעמדנו כשותף אסטרטגי למותגים".
11/12/25 13:04
6.67% מהצפיות
מאת אנשים ומחשבים
קואליציה של 42 תובעים כלליים בארה"ב שלחה אזהרה חריפה ל-OpenAI, מיקרוסופט, גוגל, אפל, מטא, xAI, אנת'רופיק ועוד חברות AI אחרות, ובו התריעה: יש לאמץ אמצעי בטיחות חדשים נגד תוצאות הזויות (שמפסקים הצ'טבוטים ועזרי ה-GenAI) שכבר הסבו פגיעות למשתמשים פגיעים, לרבות מקרי אלימות והתאבדות. מדובר בלחץ רגולטורי גובר על ענקיות הטכנולוגיה, וזאת על רקע האימוץ המואץ של כלי הבינה המלאכותית היוצרת בציבור.
קבוצה רחבה זו של תובעים כלליים מטעם מדינות וטריטוריות בארה"ב, שבראשה עמד התובע הכללי של פנסילבניה, דייב סאנדיי, דורשת כעת באופן נחרץ מחברות הבינה המלאכותית לשפר באופן דרסטי את נוהלי הבטיחות שלהן, וזאת מחשש שהן עלולות להפר חוקי מדינה.
המכתב, שנשלח לעשרות חברות, מזהיר כי בינה מלאכותית יוצרת עלולה "לגרום נזק חמור, במיוחד לאוכלוסיות פגיעות". התובעים הכלליים ציינו כי כלי ה-GenAI כבר נקשרו לאירועים חמורים, כולל מקרים של אלימות והתאבדות, כאשר צ'טבוטים פיתחו "תפוקות הזוּיות ומתרפסות", אשר עודדו את הזיות המשתמשים או הבטיחו להם שאינם הוזים. לפיכך, התובעים דורשים שמעכשיו החברות יתייחסו לסיכוני בריאות הנפש ברצינות, או לפי דבריהם: "בדיוק כמו לאיומי אבטחת סייבר". Attorney General Sunday is leading a coalition of 42 Attorneys General in sending a letter to OpenAI, Google, Meta, Microsoft, and other major AI distribution companies demanding more quality control and other safeguards over chatbot products:https://t.co/oOXPd2QYUW pic.twitter.com/XYnv2kkI0S
— PA Attorney General Dave Sunday (@PAAttorneyGen) December 10, 2025 דרישה לאימוץ אמצעי בטיחות חדשים
בין הצעדים הנדרשים נכללת הדרישה לאמץ "אמצעי בטיחות חדשים", ובכללם ביקורות שקיפות על ידי צד שלישי למודלי שפה גדולים, שתכליתן לבחון סימנים להזיות או לרעיונות בעייתים שמגיעים מכלי ה-AI.
במכתב אף צוין ש-"הביקורות הללו צריכות להתבצע על ידי מומחים חיצוניים, כגון אקדמאים או קבוצות חברה אזרחית, אשר חייבים לאפשר להם לבחון מערכות לפני פרסומן ולפרסם את ממצאיהם ללא אישור מוקדם מהחברה".
עוד קראו התובעים הכלליים לפיתוח ופרסום לוחות זמנים ברורים לאיתור ותגובה לתפוקות מזיקות, וכן לדרוש כי החברות "יודיעו למשתמשים באופן מיידי, ברור וישיר, אם נחשפו לתפוקות שעלולות להיות מזיקות מבחינה פסיכולוגית". Missouri Attorney General Alleges ChatBots Bias Against Trump
Missouri Attorney General Andrew Bailey has demanded information from Google, Microsoft, OpenAI, and Meta over alleged algorithmic discrimination and biased responses regarding Presidenthttps://t.co/DcrBpfFXDt pic.twitter.com/qliF5GX7Mq
— Global Influence Operations Report (@GIOReport) July 17, 2025 התרעה מפני הטיות פווליטיות וצנזורה – ואיך ישראל קשורה אליה?
במקביל לדרישה הרחבה והכללית הזו בנושא הבטיחות והבריאות הנפשית, התובע הכללי של מיזורי, אנדרו ביילי, שלח מכתב דרישה נפרד וממוקד יותר אל גוגל, מיקרוסופט, OpenAI ומטא, ומכתבו זה נוגע באופן ספציפי להטיות פוליטיות וצנזורה.
ביילי טען כי הצ'טבוטים של החברות הללו מייצרים תגובות מוטות ובלתי מדויקות מבחינה עובדתית אך עם זאת מציגים את עצמם כניטרליים. הוא ציין כי הדרישה הזו נובעת מכך שפלטפורמות כמו ChatGPT, Meta AI, Microsoft Copilot וג'מיני (Gemini) נתנו תשובות מטעות בעת שדירגו את הנשיאים האחרונים בנוגע לאנטישמיות. התובע סיפק דוגמה הפציפית והעלה את הסוגיה שאת הנשיא דונלד טראמפ – שלדבריו הוביל מדיניות פרו-ישראלית מובהקת, כולל חתימה על הסכמי אברהם והעברת השגרירות האמריקנית לירושלים – צ'טבוטים רבים דירגו במקום האחרון, משמע כאנטישמי ביותר מבין נשאי ארה"ב.
ביילי קרא להתנגד "באופן אגרסיבי לגל החדש הזה של צנזורה שמכוון לנשיא שלנו". התובע הכללי של מיזורי דרש בפנייתו מחברות הטכנולוגיה לספק הסבר ברור האם האלגוריתמים שלהן מאומנים להתייחס לנקודות מבט פוליטיות באופן שונה, וכן דרש את כל התיעוד הפנימי על אופן בחירת התכנים או צנזורם.
לדבריו, פעילויות אלו מטעמו מבוצעות במסגרת סמכותו להגן על הצרכנים מפני הונאה ופרסום כוזב. לדבריו, "לא נאפשר לבינה מלאכותית להפוך לעוד כלי מניפולציה".
הסנקציה והאפשרות שטראמפ יתערב
מצד החברות, מנכ"ל OpenAI, סם אלטמן, כבר הציג תוכנית ליישם אימות גיל מחמיר, לשדרג את תכונות בקרת ההורים ולהציע שיחות מותאמות גיל ב-ChatGPT. בנוסף, פותחו פרוטוקולים חדשים לתגובה למשתמשים המסומנים כנמצאים בסיכון לפגיעה עצמית.
אלטמן הבהיר את הגישה הזו, בציינו בפוסט מטעמו כי "אנו שמים את הבטיחות לפני הפרטיות והחופש עבור בני נוער; זו טכנולוגיה חדשה וחזקה, ואנו מאמינים כי קטינים זקוקים להגנה משמעותית".
אם לא ימלאו אחר הדרישות החמורות הללו – החברות עלולות לאבד את ה"חוף המבטחים" הפדרלי (Safe harbor) הניתן לפלטפורמות המארחות ומפרסמות תוכן של אחרים, מאחר שכאן מדובר בתוכן מסחרי שנוצר על ידי AI ומשווק כעובדה ניטרלית. במילים אחרות, אם ענקיות ה-AI משווקות את התוכן של הצ'טבוטים שלהן כעובדות ניטרליות ומטעות את הצרכנים, הן עלולות לאבד את ההגנה הפדרלית המסוימת ולהיחשף לתביעות או חקירות מכוח חוקי המדינה.
האזהרה החמורה מצד התובעים הכלליים מדגישה את הדחיפה הרחבה לאחריות בפלטפורמות מבוססות AI. ואולם יצוין כי נשיא ארה"ב טראמפ הודיע גם כן באחרונה כי הוא "מתכנן להעביר צו ביצועי" שמטרתו תהיה להגביל את יכולתן של מדינות לקבוע כללים משלהן בנוגע לבינה מלאכותית.
11/12/25 15:26
6.67% מהצפיות
מאת אנשים ומחשבים
הסטארט-אפ האד (Hud) נחשף, עם השקת ה-Runtime Code Sensor,שמגשר בין AI למציאות שבה רץ הקוד' והחברה הודיעה על גיוס של 21 מיליון דולר בהובלת הקרנות Aleph ו-Square Peg.
חברת Hud הוקמה על ידי היזמים הסדרתיים רועי אדלר (מנכ"ל), מאי וולטר (COT) ושי וינינגר (Non-Executive Co-Founder) במטרה לפתור את אחת הבעיות המורכבות בתחום ה-AI: היכולת של סוכני כתיבת קוד לבנות קוד לתוך מערכות מורכבות בסקייל גבוה בסביבות אנטרפרייז. למרות הצמיחה המשמעותית בתחום כתיבת הקוד על ידי AI, רוב השימוש ביכולות האלה מוגבל לפרויקטים נקודתיים ונישתיים, בין היתר מתוך החשש המוצדק שהתוצרים יפגעו בסביבת ה-Production של החברה.
כדי לענות על הצורך הזה, האד משיקה את ה-Runtime Code Sensor, הפלטפורמה הראשונה בעולם שאינה דורשת הגדרות או עבודה ידנית ומספקת תובנות בזמן אמת וברזולוציית הפונקציה לגבי התנהגות כל גוף הקוד בסביבה האמיתית שבה הוא רץ. בשלב ראשון, הסנסור מגלה בעיות של שגיאות והאטות, עם כל הקונטקסט הנדרש כדי להבין ולתקן אותן באמצעות סוכני כתיבת קוד.
האד מגשרת על פער שקיים היום בעולם בניית התכנה – ההסתמכות על טכנולוגיות Observability כמו לוגים, טרייסים ו-APMs, שמצריכים עבודה ידנית של הגדרה מראש מהיכן צריך לאסוף נתונים ודורשים לעתים קרובות שעות או ימים כדי להבין את המקור של תקלות. עוד לפני כניסת סוכני כתיבת הקוד, ארגוני תוכנה משקיעים בין 30% ל-60% מהזמן שלהם בתחזוקה ותיקון של מערכות קיימות ולא בבניית יכולות חדשות – בעיה שיש חשש שרק תועצם על יד סוכני AI.
החברה בנתה סנסור שחי עם הקוד ומביא אינפורמציית עומק בזמן אמת, עם השפעה זניחה על הסביבה שבה הוא רץ. כשהקוד רץ באופן תקין, הסנסור של האד שולח מידע התנהגותי סטטיסטי זניח מבחינת הכמות שלו, אבל כאשר הוא מזהה שגיאה או האטה, הוא אוסף ושולח מידע פורנזי עמוק הנדרש כדי להבין ולפתור את הבעיה באמצעות סוכני AI. המערכת בנויה באינטגרציה עמוקה לתהליכי העבודה המודרניים בעולם ה-AI, על ידי הטמעה ב-IDEs כמו Cursor, VSCode, Jetbrains, ובאמצעות MCP לתהליכי פתרון תקלות בתוך המערכות של הלקוחות שלה. כדי לממש את הגישה החדשנית הזו החברה גייסה קבוצה שמגיעה מעולם הסייבר, מערכות הפעלה ומחקר חולשות, בהובלת היזמת המשותפת מאי ולטר.
"ארגוניםמחקר ניצבים תחת לחץ גובר לאמץ כלי פיתוח מבוססי AI, אך מתקשים לגשר על הפער שבין הבטחות ה-AI לבין קוד שפועל בצורה אמינה בקנה מידה גדול, אמר " אמר אדלר, מנכ"ל וואחד המייסדים של האד. מחקר של Capgemini מצא כי למרות ש־60% מהארגונים מתנסים בפיילוטים של בינה מלאכותית יוצרת, כ-75% מהם מתקשים להעלות אותם לפרודקשן והגדירו זאת כ"אתגר משמעותי".
"כל צוות תוכנה שבונה בסביבות מורכבות ובקנה מידה גדול נתקל באותו אתגר בסיסי: לבנות מוצר איכותי שעובד טוב בעולם האמיתי,"בעידן הפיתוח המואץ על ידי AI, חוסר