האם בינה מלאכותית תביא לכם טראפיק איכותי יותר?

איך אפשר להתאים את התוכן שלכם לבוטים מבוססי AI, האם זה משתלם - ולמה גם בני האדם יעריכו את זה?

אחרי המהדורה האחרונה, שבה טענתי שאולי המעבר מחיפוש ״קלאסי״ לחיפוש מבוסס AI הוא לא באמת סיבת המוות הרשמית של העיתונות הדיגיטלית, קורא אדוק שלח לי את הלינק הזה, שבו גוגל הודפת בעדינות את טענות יום הדין. 

 

כזכור, בתעשיית החדשות מדברים כבר שנה (או יותר) על ״Google Zero״ – המעבר לעולם שבו מנוע החיפוש יפסיק להוציא טראפיק החוצה. או בניסוח פחות דרמטי, העלייה הצפויה במה שמכונה Zero click search. גוגל, לעומת זאת, טוענת בפוסט הזה שלמעשה התנועה לאתרים נותרה יציבה גם עם השקת פיצ׳רים כמו AI Overviews או AI Mode, ולא זו בלבד – הם מזהים עלייה במה שהם מגדירים כ-Quality clicks, כלומר משתמשים שלא ממהרים לחזור אחרי שקיבלו תשובה בלינק שביקרו.

 

עכשיו, אני לא כזה תמים. ברור שיש לגוגל אינטרס לסתור את הטענות על פגיעה בטראפיק ל-Open web – גם מבחינה תדמיתית (לא להיתפס כאלה שהרגו את העיתונות, או את הרשת בכלל), וגם מבחינה עסקית (הרבה מהאתרים האלה משתמשים בפלטפורמות הפרסום של גוגל). ואולי אם הפוסט היה מלווה בשקיפות מלאה של נתונים, ולא מציג רק טענות כלליות, זה היה קצת יותר משכנע. אבל הפוסט הזה תפס אותי ברגע מעניין – ואני לא חושב שהטענות שבו כאלה מופרכות, גם אם קצת קשה להוכיח את זה כרגע.

 

נפרק רגע את הנרטיב של גוגל לשתי טענות מרכזיות: האחת, שטראפיק לאתרים נותר יציב; והשנייה, שהם מזהים טראפיק איכותי יותר שיוצא לאתרים. את הטענה הראשונה קשה מאוד לאמת – בטח כשאנחנו מדברים על אתרי חדשות, שמלכתחילה מהווים אחוז קטן מהטראפיק שמניבות תוצאות החיפוש. כשגוגל אומרת שהתנועה לאתרים נשארה זהה, נשאלת השאלה – על אילו אתרים אנחנו מדברים?

 

יש הרבה מאוד אינדיקציות לכך שאתרים רבים כן חוו ירידות טראפיק, או ש-AI Overviews מובילים לירידה בהקלקות – למשל כאן וכאן. אבל יכול מאוד להיות שהדברים האלה יכולים להתקיים זה לצד זה: ירידה בהקלקות, ירידה בטראפיק לאתרים מסוימים – אבל טראפיק יציב באופן כללי.

 

סיבה אחת (וגוגל בטח יהיו הראשונים שיתמכו בה) יכולה להיות עלייה כללית בשימוש בחיפוש, ואינטראקציות מעמיקות יותר בעקבות החוויות החדשות שהתווספו אליו. ואז, גם אחוז ההקלקות יורד – הטראפיק הכללי יכול להישאר יציב. סיבה נוספת, והיא הימור שלי שמבוסס על נתונים שראיתי במחקרים חיצוניים שונים שבדקו את הנושא, הוא שגם אם הטראפיק הכללי לא השתנה – הוא בטח לא מתפזר בצורה דומה. 

 

קוראים ותיקים בוודאי זוכרים את ההתייחסות הזו מלפני כחודשיים לאתרים האהובים על AI Overviews. כבר אז עלתה התחושה שבתוצאות חיפוש מבוססות AI, יש הרבה פחות גיוון מתוצאות חיפוש קלאסיות. המודלים האלה מאוד אוהבים אתרים ומקורות עם ״סמכות״ עיתונאית/אינפורמטיבית. לצד זאת, ישנה מגמה כללית של גוגל לתיעדוף של UGC (תוכן שנוצר על ידי גולשים) – ובפרט, יוטיוב ו-Reddit. אם פלטפורמות כאלה, לצד כמה אתרים בולטים, מושכים את רוב התנועה – הגיוני שאחרים ירגישו ירידה. 

 

 

אבל הטענה המעניינת יותר של גוגל נוגעת לאיכות הטראפיק. וכאן, אני כמעט משוכנע שהם צודקים – אפילו בלי הנתונים שיאוששו את זה. בגדול, ההיפותזה שלי פה אומרת כך: ככל שאתה מקבל יותר ערך כבר במסך החיפוש, כך הטראפיק שייצא משם בסופו של דבר יהיה איכותי יותר.

 

כלומר, בעבר חיפשתי מידע בסיסי (מתי נכנסת שבת, מה התחזית למחר, אילו כבישים ייחסמו במרוץ הלילה של תל אביב וכו׳) ונכנסתי לקישורים שונים (ושרירותיים) כדי לקבל תשובה, ולכן ערך הביקור שלי כנראה היה נמוך מאוד. לא הייתה לי שום זיקה לאתר ש״אירח״ את התשובה. כעת, המידע הבסיסי מוצג לי כבר בממשק החיפוש – ולכן אני נדרש להקליק רק כשאני מעוניין לקבל מידע מקיף יותר. ככל הנראה, אני גם אשים לב מראש ל״מותג החדשותי״ שעליו מתבססת התשובה, ואמשיך לכתבה המקורית באופן מודע כי ארצה להעמיק או לאמת את המידע.

 

הבעיה עם טיעונים כאלה היא שהיגיון הוא אחלה דבר כל עוד אין לנו נתונים, אבל הוא לא עוזר לנו הרבה כשיש כאלה. כבר יצא לי לשמוע טיעונים רציונליים משכנעים מאוד שלא התיישבו עם המציאות בפועל. ובינתיים, הנתונים היחידים שיש לנו הם אנקדוטליים. 

 

מה שעניין אותי במיוחד הוא לא רק איכות במובן של זמן שהייה או צפייה בכמה עמודים במהלך הביקור, אלא משהו בעל ערך גבוה בהרבה – המרה של מבקר חדש למנוי בתשלום, או לפחות המרה של משתמש אנונימי למשתמש רשום. עד עכשיו, לא הצלחתי למצוא נתונים כאלה שמתייחסים להיקף משמעותי של אתרים: כן נתקלתי בדיווחים נקודתיים על כך – כמו זה למשל.

 

כל זה משאיר אותנו עם מעט עובדות, היגיון בריא, והרבה כוונות טובות. וכרגע לפחות, זה מספיק בשביל להגיד שכל סיפור הרקע הארוך הזה נועד לשכנע אתכם שאופטימיזציית תוכן ל-LLMs היא משהו ששווה לכם להשקיע בו. ה-SEO גוסס, יחי המלך החדש.

 

כי אם נניח שגוגל צודקת לפחות בחלק הזה של הטענה שלה – שהתנועה אולי מצטמצמת, אבל כל קליק ששורד את המסננת הזו הוא ממוקד ומודע יותר – המשמעות היא שכל ביקור כזה שווה לנו הרבה יותר.

 

 

בתקופה האחרונה יצא לי לקרוא לא מעט על מה שמכונה GEO, או LLMO, או AIEO, או ראשי תיבות אחרים שמתייחסים כולם בערך לאותו הדבר – התאמה של תכנים למנועי החיפוש של הדור הבא: ChatGPT, Perplexity ו-AI Overviews של גוגל. זה תחום טרי יחסית, וסביר להניח שהוא עוד יעבור אבולוציה מסוימת, אבל כבר עכשיו ברור שישנם הבדלים משמעותיים בינו לבין SEO (אופטימיזציה קלאסית למנועי חיפוש). 

 

מ׳, שעבדה בצוות שלי ב-ynet ועסקה בין היתר ב-SEO, נהגה להגיד שבמקום לחשוב על איך לערוך את הכתבה כך שתתאים לגוגל, עדיף להכווין עורכים לערוך את הכתבה כך שתתאים לבני אדם. זה נשמע מצחיק, אבל בהרבה מאוד מקרים זה נכון: טקסטים ברורים, תחביר פשוט, כותרות שממוקדות בנושא הכתבה, שמות מלאים – אלה דברים שמנועי חיפוש אוהבים, אבל גם קוראים אנושיים. ולא פעם, עורכים היו מצליחים להתכחש לעניין הזה.

 

מצד שני, פרקטיקות SEO יצרו גם המון רעות חולות במרחב הדיגיטלי. טקסטים אינסופיים שחוזרים שוב ושוב על אותן מילים וביטויים, קישורים פנימיים מיותרים – הניסיון לפצח את השיטה של גוגל הוביל להתאמה של עמודי אינטרנט רבים לבוטים, באופן שהפך אותם פחות ופחות נגישים לבני אדם. 

כאמור, הדברים משתנים כשאנחנו מגיעים ל-GEO (בואו נחליט שקוראים לזה ככה וזהו). יש כל מיני פרקטיקות שונות סביב הסוגיה הזו, אבל יש כמה עקרונות שרוב המקורות בנושא מסכימים עליהם – ובראשם בנייה של הטקסט במקטעים קצרים יחסית (3-2 פסקאות, לא ארוכות במיוחד, סביב נושא ספציפי) עם כותרות ביניים ברורות וענייניות, או בפורמט של שאלות ותשובות. וכאן, הנבואה של מ׳ מתגשמת: זו לא עריכה לבוטים – זו עריכה לבני אדם.

 

הייתה תקופה אי אז בסוף העשור הקודם ותחילת העשור הנוכחי שפורמט הטקסטים של Axios היה משב רוח מרענן בעולם העיתונות הדיגיטלית. הם אפילו הפכו את זה לספר – Smart Brevity: The Power of Saying More with Less. אם לעשות להם עוול ולתמצת את הקונספט לשני משפטים, אפשר לסכם אותו כך: קחו את המידע שיש לכם, תזקקו ממנו את הפרטים החשובים ביותר, והגישו אותם לקורא באופן מקוצר ונוח לעיכול. רצוי עם Bullet points. 

 

פשוט? מאוד. חדשני? אולי. אבל מאחורי הפורמט הטכני, הייתה תפיסה נכונה: לא להתקבע למבנה שאנחנו רגילים לכתוב בו, ולא למבנה שנוח לנו לכתוב בו – אלא להסתכל על מה הקורא צריך ורוצה לדעת, ולהעריך את העבודה שהזמן שלו יקר. במובן מסוים, זו הייתה חשיבה מוצרית מדויקת בתעשייה שמאוד לא מצטיינת בחשיבה מוצרית: מה כואב ללקוח, אילו בעיות אני יכול לפתור עבורו. 

 

הסיבה שהפורמט הזה כבר הרבה פחות מלהיב ב-2025, היא בעיקר AI. המון אתרים – בארץ ובעולם – מציעים לנו סיכומים ב-Bullet points. במובן מסוים, אפשר להגיד שלצד עולם החיפוש, התרחשה מהפכה נוספת ב-Information ecosystem בעקבות כניסת הבינה המלאכותית – והיא שאין כבר שום משמעות לפורמטים: אנחנו מסוגלים היום לקחת כל פיסת תוכן ולהמיר אותה מהר, בזול ובאיכות גבוהה יחסית לכל פורמט אחר. מטקסט לווידאו, מאודיו לטקסט, משפה אחת לשפה אחרת, מטקסט ארוך לסיכום בנקודות, מערמה של מאמרים לפודקאסט סינתטי של כמה דקות. 

 

ולמרות כל זאת, זה די מדהים שגם היום הרבה מאוד מהתוכן שאנחנו פוגשים באתרי חדשות לא באמת מותאם למה שנוח לנו לצרוך. כתבות רבות פשוט לא נוחות לקריאה. אני אמנע מדוגמאות כדי לא להיגרר למחוזות השיימינג, אבל אני מזמין אתכם להיכנס לאתר החדשות האהוב עליכם ופשוט לגלול לאורך כתבה. לא להתמקד בטקסט, אלא בחוויה: זה רועש, מאוד. 

 

לכן, למרות שהטראפיק שיגיע מחיפושים מבוססי AI צפוי להישאר נמוך ביחס למה שאנחנו מכירים מחיפוש קאלסי, אפשר בעיניי להסתכל על GEO כהזדמנות כפולה: זו כנראה הזדמנות לפגוש משתמשים עם עניין אמיתי בתוכן ובמותג שלכם (גם אם עדיין לא קיבלנו את הנתונים שמוכיחים את זה), וזו בטוח הזדמנות להגיש להם תוכן בצורה נוחה, שמכבדת את הזמן שלהם.

 

נ״ב: כן גם אני רואה את האירוניה בפואנטה הזו, בסופו של טקסט בן 1,300 מילה בלי שום Bullet points. אבל הקוראים שלי מיוחדים.