چگونه موتورهای جستجو در بهبود سایت شما شکست میخورند
نویسنده : مت بیلی – Matt Baily
درباره نویسنده : مت بیلی سرمایه گذار اصلی وب سایت SiteLogic است که یک شرکت مشاوره در زمینه های تجاری است . مت از سال 1996 در صنعت بهینه سازی و وب سایت های تجاری حضورداشته است و از سال 1999 این راه را به افراد دیگر نیز آموزش داده است . مت یکی از سخنران های همیشگی در کنفرانس های مربوط به سیاستهای موتورهای جستجو در برنامه هایی که در آمریکا و یا در سطح بین المللی برگزار میشوند مثل Direct Marketing Association و یا American Advertising federation , است .
امروزه بازسازی و یا توسعه مجدد یک وب سایت یکی از مشکلات بزرگ شرکت های بزرگ است, همه چیزی که میخواهند حضور بهتر در سطح وب و سرمایه گذاری بیشتر برروی وبسایتشان است . به هر حال بیشتر از هرزمان دیگری,موتورهای جستجو بزرگ ترین مانع برای بهینه سازی و تقویت یک وب سایت هستند .
برنامه ریزی برای طراحی مجدد
موردی که من در مشاوره برای توسعه و بهینه سازی معماری وب سایت ها به آن برخورد کردم,یکی از سخت ترین تحولات برای انتقال از وب سایت قدیم به وب سایت جدید , تغییر معماری و ساختار آن است . برای وب سایت های بزرگ زمانی که تغییر در ساختار و معماری داده میشود, تعداد زیادی صفحات ذخیره شده هستند که دیگر وجود ندارند و قابل دسترسی نیستند . برنامه ریزی و صرف زمان برای این کار یکی از مهمترین وطایف است که باید به سرعت انجام شود .
عجیب است که بزرگترین مانع برای بهبود وب سایتها ( معماری وکاربرد) خود موتورهای جستجو هستند . متد مورد استفاده برای دسترسی به صفحات و ذخیره آنها منسوخ شده و پردردسر است چون سیاست مشخصی در قبال بهبود و تغییر وب سایت ها ندارد . در مدت کوتاهی شکرتها برای این که محدودیت های موتورهای جستجو ( مخصوصا گوگل ) را در نظر نگرفته اند , متضرر میشوند .
چه مشکلی وجود دارد ؟
1 – در یک پروژه وب سایت جدید , معمولا معماری و ساختار تغییر میکند . شرکت ها بیشتر مراقب برنامه نویسی سازگار با موتورهای جستجو بوده و از آن در عملیات های خود استفاده میکنند . به هر حال زمانی که ساختار جدید راه اندازی میشود , ساختار قبلی و صفحه های قبلی هستند که رنکینگ را نگه داشته اند .
ننیجه : رنکینگ از دست رفته و صفحات قدیمی که رنکینگ را تگه داشته اند دیگر وجود ندارند .
2 – لینکهای ورودی به وب سایت و صفحات داخلی این وبسایت,مقصد خود را از دست میدهند ( نام صفحات مقصد معمولا در هر ساختار جدید متفاوت با قبلی است ) . این کار باعث کاهش لینکهای منتهی به وب سایت مربوطه میشوند, چون لینک مقصد دیگر وجود ندارد .
نتیجه : کاهش رنکینگ و محتوایی که براساس لینکهای بدون هدف ( broken) ذخیره شده اند .
تغییر مسیرها- Redirects
برای رفع مشکل و گذر از این موقعیت , یک فرمول قدیمی وجود دارد که لینکها با کد 301 بازنویسی میشوند و برروی مطالب قبلی ارسال میشوند که با صفحات فعلی نمایش داده میشوند . به هر حال این کار نیاز به منابع سرور دارد . در یک تغییر مسیر صفحه قبلی درخواست شده است و سرور بررسی میکند که آیا صفحه جدیدی وجود دارد که برای لینک مربوطه نمایش بدهد . در این جالت امکان بازیابی رنکینگ معمولا وجود دارد .
لینک های تغییر داده شده
لینکها نیز امکان بازیابی دارند . لینکهای تغییرداده شده یک لینک مستقیم نیستند . صفحه مقصد ,صفحه ای نیست که درخواست شده و احتمالا نتیجه آن از دست رفتن محتوا خواهد بود . بهتر است که یک لینک مستقیم به صفحه مقصد داشته باشیم تا لینک با ارزش بالاتری داشته باشیم . به هرحال برای صاحبان سایت که صدها یا هزاران صفحه و لینک دارند سخت است که از وبمسترها و دیگر صاحبان وب سایتها بخواهند که لینک های برقرار شده به سایتشان را ویرایش کنند تا از لینک هایی با ارزش کامل بهره مند شوند ولی آیا این کار واقعا لازم است ؟ آیا تکنولوژی موتورهای جستجو فاقد قدرت پیش بینی برای ده سال آینده هستند و موجبات دردسر وبمسترها را فراهم میکنند ؟
رفع مشکل با تغییر مسیر باعث به کار گرفتن بخش کوچکی از منابع سرور برای انجام این تغییر میشود . اگر تغییر مسیرها کم باشند مشکلی نیست , ولی وقتی با یک وب سایت 8 یا 10 ساله طرف هستید که هزاران صفحه دارد , آن وقت تغییر مسیر لینک ها کمر سرور و منابع آن را خم میکنند .
محتوای تکراری
البته این موضوع نیز وجود دارد که تغییر مسیرها به صورت مناسب نوشته و اعمال شوند . من از این مشکلات متعارف که برای وبمسترها ایجاد میشود با این که آنها اکثرا سعی در کمک به موتورهای جستجو دارند, متعجب میشوم !
من با برنامه نویسان زیادی کار کرده ام که فعالیت های جالب و خلاقیت های زیادی را در تولید و توسعه نرم افزار های وب در پروژه های ایجاد وب سایت , انجام داده اند فقط به خاطر این که مشکل محتوای تکراری در وب سایتشان داشته اند . چه تعداد شرکت وجود دارند که در مورد محتوای تکراری و عواقب آن برای کند کردن رنکینگ و کاهش آن باخبر و در مورد آن نگران هستند ؟ چه تعداد وب سایت به خاطر این بی اطلاعی از محتوای تکراری دچار دردسر شده و توسط موتور جستجو ها جریمه شده اند ؟
گوگل میپرسد : “اگر موتورهای جستجو نبودند آیا من مجبور بودم این کاررا انجام بدم ؟ ”
شرکت ها باهوش تر از همیشه به تولید و ایجاد وب سایت های خود اقدام میکنند , از تکنولوژی های سازگار با موتورهای جستجو بهره میگیرند , از ajax و طراحی های استاندارد CSS و دیگر تکنولوژی ها تا بتوانند تجربه بهتری برای کاربر وب سایت خود به ارمغان بیاورند .
اساسا گوگل قوانینی برای طراحی وب سایت ها و یا طراحی مجدد و ایجاد نوآوری در وب سایت ها تعیین کرده است . اگر شرکتی به این قوانین توجه نکند یا زمان و هزینه کافی برای مهندسی وب سایت و به روزرسانی اطلاعات و تکنولوژی های قدیمی خود به دست نیاورد پس قطعا آنها از این کار متضرر خواهند شد .
خلاصه این که مقاله گوگل با عنوان ” اگر موتورهای جستجو نبودند آیا من مجبور بودم این کاررا انجام بدم ؟” مزخرفاتی بیش نیست ! مخصوصا زمانی که با مقاله مثل ” رفع مشکل گوگل در مورد Ajax” برخورد میکنیم . توسعه دهندگان و طراحان وب مجبورند دائم در حال سروکله زدن با تکنولوژی قدیمی موتورهای جستجو باشند تا بتوانند یک وب سایت جدید طراحی کنند و از رنکینگ وب سایت نیز مراقبت کنند .
من از مقابله و مبارزه لذت میبرم , ولی این مبارزه به سمتی میرود که بیشترین هزینه را برای شرکت ها وطراحانی دارد که سعی میکنند از تکنولوژی های جدید برای بقای بیشتر برروی وب و تجربیات بهتر برای کاربران استفاده کنند . بیشتر از آن که نوآوری در ابزارها و نرم افزار ها مورد نیاز بوده , بهتر است موتورهای جستجو حرکت رو به جلو داشته و متد های خود را در سطوح مرکزی بهینه کنند .
در غیراینصورت افرادی که سعی میکنند واقعا نوآوری در عملکرد خود داشته باشند , افرادی خواهند بود که متضرر میشوند .
منبع:
http://www.sitelogicmarketing.com/blog/11-search-engines-fail-innovation