تحسين الموقع في محركات البحث

 هو عملية تحسين جودة الموقع وكمية حركة المرور website traffic  إلى موقع ويب أو صفحة ويب في محركات البحث.

تستهدف مُحسّنات محرّكات البحث الزيارات غير المدفوعة (المعروفة بالنتائج الطبيعية organic ) بدلاً من الزيارات المباشرة أو الزيارات المدفوعة.

قد تنشأ حركة المرور غير المدفوعة من أنواع مختلفة من عمليات البحث، بما في ذلك البحث عن الصور والبحث عن الفيديو، والبحث الأكاديمي، والبحث عن الأخبار، ومحركات البحث العمودية الخاصة بالصناعة.

كإستراتيجية تسويق عبر الإنترنت، تأخذ مُحسّنات محرّكات البحث في الاعتبار كيفية عمل محركات البحث، والخوارزميات المبرمجة بالكمبيوتر التي تملي سلوك محرك البحث، وما يبحث عنه الأشخاص، ومصطلحات البحث الفعلية أو الكلمات الرئيسية keywords المكتوبة في محركات البحث، ومحركات البحث التي يفضلها الجمهور المستهدف.

يتم تنفيذ تحسين محركات البحث (SEO) لأن موقع الويب سيستقبل المزيد من الزوار من محرك بحث عندما تحتل مواقع الويب مرتبة أعلى في صفحة نتائج محرك البحث. حيث يمكن بعد ذلك تحويل هؤلاء الزوار إلى عملاء.

تاريخ ظهور عملية تحسين محركات البحث :

بدأ مشرفي المواقع وموفري المحتوى في تحسين مواقع الويب لمحركات البحث في منتصف التسعينيات، حيث كانت محركات البحث الأولى تقوم بفهرسة الويب المبكرة.

في البداية، كان كل مشرفي المواقع بحاجة فقط إلى إرسال عنوان الصفحة، أو عنوان URL، إلى المحركات المختلفة التي ترسل متتبع ارتباطات الويب web crawler للزحف إلى تلك الصفحة، واستخراج الروابط إلى الصفحات الأخرى منها، وإرجاع المعلومات الموجودة على الصفحة المراد فهرستها .

تتضمن العملية تنزيل عنكبوت لمحرك البحث search engine spider لصفحة ما وتخزينها على خادم محرك البحث الخاص.

يقوم برنامج ثان، يُعرف باسم المفهرس Indexer، باستخراج معلومات حول الصفحة، مثل الكلمات التي تحتوي عليها، ومكان وجودها، وأي وزن لكلمات معينة، بالإضافة إلى جميع الروابط التي تحتوي عليها الصفحة.

ثم يتم وضع كل هذه المعلومات في برنامج جدولة للزحف في تاريخ لاحق.

أدرك مالكي مواقع الويب قيمة الترتيب العالي والظهور في نتائج محرك البحث، مما خلق فرصة لكل من ممارسي القبعة البيضاء والقبعة السوداء white hat and black hat لتحسين محركات البحث.

وفقًا لمحلل الصناعة داني سوليفان، من المحتمل أن عبارة “تحسين الموقع في محركات البحث” قد دخلت حيز الاستخدام في عام 1997. وينسب سوليفان الفضل إلى بروس كلاي كأحد الأشخاص الأوائل الذين روجوا لهذا المصطلح.

في 2 مايو 2007، حاول Jason Gambert وضع علامة تجارية لمصطلح SEO من خلال إقناع مكتب العلامات التجارية في أريزونا بأن تحسين الموقع في محركات البحث هو “عملية” تتضمن التلاعب بالكلمات الرئيسية وليست “خدمة تسويقية”.

اعتمدت الإصدارات المبكرة من خوارزميات البحث على المعلومات التي قدمها مشرف الموقع مثل العلامة الوصفية للكلمة الرئيسية meta tag أو ملفات الفهرس في محركات مثل ALIWEB حيث توفر العلامات الوصفية دليلًا لمحتوى كل صفحة.

كيف تلاعب موفري محتوي الويب للحصول على ترتيب جيد:

تم العثور على استخدام البيانات الوصفية لفهرسة الصفحات على أنه أقل من الموثوقية، لأن اختيار مشرف الموقع للكلمات الرئيسية في العلامة الوصفية قد يكون تمثيلًا غير دقيق لمحتوى الموقع الفعلي.

قد تتسبب البيانات غير الدقيقة وغير الكاملة وغير المتسقة في العلامات الوصفية في تصنيف الصفحات لعمليات البحث غير ذات الصلة، كما تلاعب موفري محتوى الويب ببعض السمات داخل مصدر HTML للصفحة في محاولة للحصول على ترتيب جيد في محركات البحث.

بحلول عام 1997، أدرك مصممي محركات البحث أن مشرفي المواقع يبذلون جهودًا للحصول على ترتيب جيد في محرك البحث الخاص بهم، وأن بعض مشرفي المواقع كانوا يتلاعبون بترتيبهم في نتائج البحث عن طريق حشو الصفحات بكلمات رئيسية مفرطة أو غير ذات صلة.

قامت محركات البحث المبكرة، مثل Altavista و Infoseek، بتعديل خوارزمياتها لمنع مشرفي المواقع من التلاعب بالترتيب، من خلال الاعتماد الشديد على عوامل مثل كثافة الكلمات الرئيسية، والتي كانت حصريًا ضمن سيطرة مشرف الموقع، عانت محركات البحث المبكرة من إساءة الاستخدام والتلاعب بالترتيب.

لتقديم نتائج أفضل لمستخدميها، كان على محركات البحث أن تتكيف للتأكد من أن صفحات نتائجها تعرض نتائج البحث الأكثر صلة، بدلاً من الصفحات غير ذات الصلة المليئة بالعديد من الكلمات الرئيسية من قبل مشرفي المواقع عديمي الضمير.

وهذا يعني الابتعاد عن الاعتماد الشديد على كثافة المصطلح إلى عملية أكثر شمولية لتسجيل الإشارات الدلالية.

نجاح محرك البحث وشعبيته يتحددان من خلال قدرته على إنتاج النتائج الأكثر صلة بأي بحث معين، فإن الجودة الرديئة أو نتائج البحث غير الملائمة قد تدفع المستخدمين إلى العثور على مصادر بحث أخرى.

استجابت محركات البحث من خلال تطوير خوارزميات تصنيف أكثر تعقيدًا، مع مراعاة العوامل الإضافية التي كان من الصعب على مشرفي المواقع معالجتها.

في عام 200 ، تم إنشاء مؤتمر سنوي AIRWeb إسترجاع المعلومات العدائية على الويب، ليجمع الممارسين والباحثين المهتمين بتحسين الموقع في محركات البحث والموضوعات ذات الصلة.

حيث يمكن للشركات التي تستخدم تقنيات مفرطة في العدوانية لمنع مواقع عملائها من الظهور في نتائج البحث.

في عام 2005، نشرت صحيفة وول ستريت جورنال تقريرًا عن شركة، Traffic Power، التي يُزعم أنها استخدمت تقنيات عالية المخاطر وفشلت في الكشف عن هذه المخاطر لعملائها.

ذكرت مجلة وايرد أن نفس الشركة رفعت دعوى قضائية ضد المدون وكبار المسئولين الاقتصاديين آرون وول للكتابة عن الحظر. أكد مات كاتس من Google لاحقًا أن Google في الواقع حظرت Traffic Power وبعض عملائها.

وصلت بعض محركات البحث أيضًا إلى صناعة تحسين الموقع في محركات البحث، وهي رعاة وضيوف متكررون في مؤتمرات تحسين محركات البحث، ومحادثات الويب، والندوات. توفر محركات البحث الرئيسية معلومات وإرشادات للمساعدة في تحسين مواقع الويب.

لدى Google برنامج خرائط مواقع لمساعدة مشرفي المواقع على معرفة ما إذا كانت Google تواجه أية مشكلات في فهرسة موقع الويب الخاص بهم، كما توفر بيانات حول حركة مرور Google إلى موقع الويب.

توفر أدوات مشرفي المواقع من Bing طريقة لمشرفي المواقع لإرسال خريطة موقع وموجزات ويب، وتسمح للمستخدمين بتحديد “معدل الزحف” وتتبع حالة فهرس صفحات الويب.

في عام 2015، تم الإبلاغ عن أن Google تعمل على تطوير وتعزيز البحث عبر الهاتف المحمول كميزة رئيسية في المنتجات المستقبلية. رداً على ذلك، بدأت العديد من العلامات التجارية في اتباع نهج مختلف لاستراتيجيات التسويق عبر الإنترنت

Leave a Comment

Your email address will not be published. Required fields are marked *