SEO تحسين محركات البحث

SEO تحسين محركات البحث
seo

في منتصف التسعينات، بدأ مسؤولو المواقع الإلكترونية ومقدمو المحتوى بتحسين مواقعهم على شبكة الإنترنت لكي تُفهَرَس بشكل أفضل في محركات البحث. في البداية، كان على مسؤولي المواقع تقديم عنوان الصفحة أو عنوان ويب فقط لمحركات البحث المختلفة. وكانت هذه المحركات ترسل "المفهرس الويب"، وهو نوع من البرامج التي تقوم بزيارة تلك الصفحات واستخراج الروابط الموجودة فيها واستخلاص المعلومات المتواجدة على الصفحة لفهرستها.[2]

تتضمن هذه العملية تنزيل الصفحة باستخدام ويب كراولر وتخزينها على خادم المحرك. ثم يقوم برنامج آخر يُعرف بـ "المفهرس" بأخذ المعلومات حول الصفحة، مثل الكلمات الموجودة فيها ومواقعها والأهمية المرتبطة بكل كلمة، بالإضافة إلى استخلاص جميع الروابط الموجودة في الصفحة. يتم تخزين كل هذه المعلومات في جدول زمني للزيارة والفهرسة في وقت لاحق.

أدرك مسؤولو المواقع الإلكترونية قيمة الحصول على تصنيف عالٍ وظهور واضح في نتائج محركات البحث.[3] خلق فرصة لكل من ممارسي القبعة البيضاء والقبعة السوداء لتحسين محركات البحث. وبحسب المحلل الصناعي داني سوليفان، فإن عبارة "تحسين محركات البحث" بدأت ربما تستخدم في عام 1997. ويُنسب لبروس كلاي كواحد من أوائل الأشخاص الذين أشهروا هذا المصطلح.[4]

في عام 1997، أدرك مطورو محركات البحث أن مدير المواقع الإلكترونية يبذلون جهودًا لتحقيق تصنيف مرتفع في محركات البحث الخاصة بهم، وأن بعض مدير المواقع الإلكترونية يقومون بتلاعب ترتيبات النتائج عن طريق إضافة العديد من الكلمات الرئيسية غير المرتبطة. استجابت محركات البحث المبكرة عن طريق ضبط خوارزمياتها لمنع مدير المواقع الإلكترونية من تلاعب الترتيبات.[5]

بالاعتماد الشديد على عوامل مثل كثافة الكلمات الرئيسية التي كانت تخضع حصرًا لسيطرة مدير المواقع الإلكترونية، عانت محركات البحث الأولى من سوء الاستخدام وتلاعب الترتيبات. لتوفير نتائج أفضل لمستخدميها، اضطرت محركات البحث إلى التكيف وضمان أن صفحات نتائجها تعرض أكثر النتائج ذات الصلة بدلاً من صفحات غير ذات صلة مليئة بالعديد من الكلمات الرئيسية من قبل مدير المواقع الإلكترونية غير الأخلاقيين.[6] نظرًا لأن نجاح وشعبية محرك البحث يتحدد بقدرته على تقديم أكثر النتائج ذات الصلة لأي بحث معين، فإن نتائج البحث ذات الجودة السيئة أو غير ذات الصلة يمكن أن تدفع المستخدمين للبحث عن مصادر بحث أخرى. وردت محركات البحث بتطوير خوارزميات التصنيف المعقدة أكثر، مع مراعاة عوامل إضافية يكون من الصعب على مدير المواقع الإلكترونية التلاعب بها.

يمكن أن تتعرض مواقع العملاء التي تعتمد أسلوب القبعة السوداء في تحسين محركات البحث بشكل مفرط للحظر من نتائج البحث. في عام 2005، ذكرت صحيفة وول ستريت جورنال عن شركة تدعى Traffic Power التي قامت على ما يبدو باستخدام تقنيات عالية المخاطر وفشلت في الكشف عن تلك المخاطر لعملائها.[7] وذكرت مجلة وايرد أنها قامت الشركة نفسها بمقاضاة المدون وخبير تحسين محركات البحث أرون وول بسبب كتابته عن الحظر.[8] أكد مات كاتس من جوجل فيما بعد أن جوجل فعلا قامت بحظر Traffic Power وبعض عملائها.[9]

بعض محركات البحث قامت بالتواصل مع "مجتمع تحسين محركات البحث" وشاركت كضيوف في مؤتمرات وندوات ومناقشات عبر الويب. تقدم المحركات الرئيسية معلومات وإرشادات للمساعدة في تحسين المواقع.[10][11] على سبيل المثال: جوجل تمتلك برنامج خرائط المواقع (بالإنجليزية: Sitemaps)‏ الذي يساعد مدير المواقع الإلكترونية في معرفة مشاكل فهرسة موقعهم ويوفر بيانات حول حركة المرور من جوجل إلى الموقع.[12] أدوات مساعد الويب من مايكروسوفت بينغ توفر أيضًا طريقة لمدير المواقع الإلكترونية لتقديم خريطة الموقع وتغذية الويب، وتسمح للمستخدمين بتحديد "معدل الزيارة" وتتبع حالة فهرسة صفحات الويب.

في عام 2015، أعلنت جوجل عن تطوير وتعزيز ميزة البحث عبر الهواتف المحمولة كجزء أساسي من خططها المستقبلية. وبناءً على هذا الإعلان، بدأت الكثير من العلامات التجارية في اعتماد استراتيجيات تسويق مختلفة على الإنترنت تلبي احتياجات المستخدمين الذين يستخدمون الهواتف المحمولة في عمليات البحث والتسوق عبر الإنترنت.[13]

محرك بحث جوجل[عدل]

في عام 1998، قام طالبان في دراساتهما العليا في جامعة ستانفورد، لاري بيج وسيرجي برين، بتطوير "باكرب (بالإنجليزية: Backrub)‏"، وهو محرك بحث يستخدم خوارزمية رياضية لتقييم أهمية صفحات الويب. يتم احتساب رقم يسمى بيج رانك باستخدام الخوارزمية، وهذا الرقم يعكس كمية وجودة الروابط الواردة إلى صفحة معينة.[14] يعتبر بيج رانك مؤشرًا على احتمال وصول مستخدم عشوائي للويب إلى صفحة محددة عند تصفحه الروابط بشكل عشوائي. ببساطة، يعني ذلك أن بعض الروابط أكثر قوة من غيرها، وبالتالي صفحة ذات بيج رانك أعلى ستكون أكثر احتمالًا للوصول إليها من قبل المستخدم العشوائي الذي يتصفح الويب.

تأسست شركة جوجل عام 1998 على يدي لاري بيج وسيرجي برين[15] لقد جذبت جوجل اهتمامًا كبيرًا من قبل المستخدمين على الإنترنت بسبب تصميمها البسيط.[16] لتحقيق نتائج بحث موثوقة ومنصفة، اعتمدت جوجل على العوامل الخارجية مثل بيج رانك وتحليل الروابط المتشعبة، بالإضافة إلى العوامل الداخلية مثل تكرار الكلمات الرئيسية والعلامات الوصفية والعناوين والروابط وهيكل الموقع. هذا النهج سمح لجوجل بتجنب أنواع التلاعب التي تحدث في محركات البحث الأخرى التي تعتمد فقط على العوامل الداخلية في تصنيفاتها. على الرغم من أن بيج رانك كان صعبًا في التلاعب به، إلا أن مدير المواقع وجدوا طرقًا لبناء الروابط للتأثير على محرك البحث إنكتومي. تبين أن بعض هذه الاستراتيجيات قابلة للتطبيق أيضًا في التلاعب بـ بيج رانك. بعض المواقع ركزت على تبادل وشراء وبيع الروابط النصية بكميات كبيرة. وتشمل بعض هذه الخطط، المعروفة أيضًا بـ "مزارع الروابط".[17]

في عام 2004، قامت محركات البحث بدمج مجموعة واسعة من العوامل غير المفصح عنها في خوارزميات تصنيفها للحد من تأثير التلاعب بالروابط. في يونيو 2007، ذكر صول هانسيل من صحيفة نيويورك تايمز أن جوجل يقوم بتصنيف المواقع باستخدام أكثر من 200 إشارة مختلفة.[18] لا تكشف محركات البحث الرائدة مثل جوجل وبينغ وياهو عن الخوارزميات التي يستخدمونها في تصنيف الصفحات. قام بعض متخصصي تحسين محركات البحث بدراسة نهج مختلف لتحسين محركات البحث وقد شاركوا آراءهم الشخصية.[19] في عام 2005، بدأت جوجل في تخصيص نتائج البحث لكل مستخدم بناءً على سجل بحوثهم السابقة، حيث تقوم جوجل بتخصيص النتائج للمستخدمين المسجلين.