سه نکته برای بهبود سئو سایت در سال 2018

 

فراگیری seo و نکات بسیار اساسی آن برای بهبود شرایط بهینه سازی وب سایت ها در سال 2018 را در‌این نوشته‌ی‌علمی سئو در مشهد شرح می‌دهیم. آیا می دانید که سال جاری می بایست تمرکز خویش را بر روی چه بخشی از بهینه سازی بگذارید تا از رقبای خویش جلو بزنید؟ در‌این نوشته‌ی علمی ایده هایی به شما می دهیم. در سومی ماه سال میلادی نو هستیم و هرکدام قدمی که بر میداریم قادر است با گاز پیشرفت ما در سال نو بیفزاید.

 

می‌خواهم به شما با معرفی چندین طرز امداد کنم در سال 2018 سکوی توفیق و پیشرفت در seo را به دست آورید. خیر فقط صرفا برای سال جاری، بلکه برای آینده.

 

این شیوه ها بی آلایش میباشند، ولی سهل و آسان نیستند. در واقع با اینکه این نحوه ها غامض نیستند، البته برای به عاقبت رساندن آن ها بایستی کارایی متعددی بکنید.

 

شاید اینکه کوشش متعددی بایستی بکنید، بد به حیث رسد، ولی در واقع این یک خوش شانسی میباشد به این دلیل‌که به‌این معناست که بیشتر رقبای شما هیچ تلاشی نمی‌کنند. براین اساس شما شانس بسیار خیر دارید.

 

سرعت کاغذ خویش را بالا ببرید تا رنک بهتری بگیرید

 

 

 

گوگل جدیدا اعلام نموده است که از اویل ماه جولای سال 2018، سرعت صفحه ها موبایلی، فاکتوری برای رنک دهی صفحه های در نتیجه ها جستجوی موبایلی خواهد بود. سرعت کاغذ تاثیر به سزایی روی تجربه کاربری نیز داراست و یکسری جنبه از تجربه کاربری نیز فاکتورهای بدون واسطه رنک دهی میباشند.

 

مطالعات آرم می‌دهد که هرچه یک کاغذ سریعتر بارگیری خواهد شد، بازدیدکنندگان نیز بیشتر در برگه خواهند ماند و در اکثر اوقات موردها، در مقایسه با بازدیدکنندگان صفحه های نماید، بیشتر به مشتری تبدیل خواهند شد.

 

اکثر زمان ها اشخاص مجال شگرفی برای پیشرفت در‌این قسمت دارا‌هستند، چرا‌که نمی دانند تا چه حد کارایی ورقه شان ضعیف میباشد. اخیرا با یک مشتری بهینه سازی وب سایت سخن میکردم و هنگامی نوبت تخت گاز بارگیری ورقه رسید، وی با غرور ذکر کرد که اینترنت سایتش “بیشتراز حد سریع” میباشد و معمولا در کمتر از یک یا این که دو ثانیه بارگیری می‌شود.

 

درصورتی که حرفش صحیح بود خوب می‌شد. ولی در واقع با آزمایشاتی که اینجانب با ابزارهای گوناگون بر روی تارنما وی اعمال دادم، متوجه شدم سرعت بارگیری سایت وی در حدود 30 ثانیه بود.

 

بهتر میباشد بدانید که اینجانب زمانی سخن از سرعت بارگیری صفحه های میزنم، صرفا در رابطه Google’s PageSpeed Insights حرف نمی‌کنم. در واقع دارم در رابطه سرعت کلی بارگیری کاغذ در مجموع سخن می‌کنم.


الگوریتم Freshness گوگل چیست؟

 

چه‌کسی عشق دارااست که سن دوست‌دختر جاستین بیبر در سال 2005 را بداند؟!

این پاراگراف نسبتاً زننده، دقیقاً صحبتی بود که رئیس قدیمی نصیب کاوش گوگل در سال 2011 و در طول سئو در مشهد رونمایی از الگوریتم Freshness تیتر کرد. این الگوریتم در اولِ رونمایی سبب ساز ساخت‌و‌ساز تغییرات متعددی در نتیجه ها کاوش شد. طبق آمار، چیزی نزدیک به 35 درصد تارنما‌های سکو‌دار در حاصل صفحه ها نخستین گوگل، بعد از استارت شغل Freshness، در جایگاه‌های خویش در گیر تغییرات شدند و این قضیه اکثری از وبمستران را به معنای حقیقی نگران کرد.

 

درین نوشته‌ی‌علمی قصد داریم به طور جامع، به معرفی الگوریتم Freshness بپردازیم و بعد از آن، نکات اصلی و کلیدی با صرفه‌سازی وبسایت و محتوا را برای این الگوریتم به شما فراگیری دهیم.

 

چرا الگوریتم Freshness ساخته شد؟

فرآیند ساخت محتوا به طور افزایشی در حالا پیشرفت بوده و می‌باشد. در سال 2010 پیش‌بینی گردیده بود که وسعت محتواهای ایجاد گردیده، صرفا در سال 2017، بیشتر از داده ها ساخت گردیده در 5 هزار سال پیش از آن باشد! خودتان فکر کنید در میان این‌کلیه داده ها و محتوای جان دار، گوگل چطور می خواهد دقیقاً مقاله اثرگذار و متبوع مخاطب را به دست وی برساند؟

 

گوگل برای نشانه دادن شایسته ترین فیض به یوزرها خویش، الگوریتم‌های متعددی (برای مثال کبوتر، مرغ مگس‌خوار، پاندا، پنگوئن و ...) را ساخت‌و‌ساز کرده و به‌روزرسانی می‌نماید. الگوریتم‌هایی که بر روی مواقعی مثل:

 

نسخه برداری نبودن محتوا

اعتبار سنجی وبسایت

تشخیص محتوای بی کیفیت

و...

تمرکز دارا هستند؛ البته این‌ها گشوده هم کافی نبودند. اذن بدهید یک نمونه بزنم. فکر کنید که شما در ادامه دانلود یک کتاب درسی برای فرزند خویش در سطح اینترنت می باشید. آیا دوست دارید در طی کاوش عبارتِ «کتاب فارسی پنجم دبستان»، با سایتی روبرو گردید که کتاب فارسی درج شده در سال 1387 را به شما نماد می دهد؟ آیا در‌این‌صورت اسکن نبودن، کیفیت خوب بودن و اعتبار بالای تارنما به شما یاری می‌نماید؟ به هیچ عنوانً.

 

اساسا، الگوریتم Freshness برای حل ایراد یوزرها در واکنش با محتواهای کهن پدید آمد! به عبارت دیگر، وظیفه Freshness، ارتقاء مرتبه محتواهای تازه نسبت به محتوای کهن میباشد. با امداد این الگوریتم میباشد که بعداز کاوش عبارتِ «کتاب فارسی دبستان» در گوگل، به نو‌ترین ورژن چاپی این کتاب در درجه‌های ابتدا نتیجه ها میرسید.

 

 

 

آیا با الگوریتم Freshness، کلیه محتواهای نو به صدر حاصل گوگل می‌رسند؟

مطمئناً پاسخ این سؤال منفی میباشد. فراموش نکنید که بهینه سازی مانند یک مسابقه ورزشی میباشد. در شرایطی که یک ورزش‌کار تنها تغذیه نیکی داشته باشد، نمی‌قدرت ذکر کرد که وی حتماً چیره آخری مسابقه گردد. الگوریتم Freshness و محتوای نو نیز تنهاً یکی‌از نکات اساسی برای پیروز شدن درین مسابقه میباشد که اما همین مورد هم برای همه تارنما‌ها یکسان وجود ندارد. به صورت نمونه:

 

هنگامی که عبارت «مدیر جمهور کشور‌ایران» را کاوش نمائید، مطمئناً بسیار اهمیت داراست که در ورقه نخستین، با کاغذ‌ای از ویکی‌پدیا روبرو گردید که درباره‌ی آقای حسن شیخ نوشته میباشد، خیر برگه‌ای در باب مدیر جمهور دیرین سرزمین، آقای محمود احمدی نژاد. البته در مقابل وقتی که عبارت «فراگیری پخت خورش قورمه سبزی» را سرچ فرمایید، اهمیت متعددی ندارد که امر پخت این طعام، مرتبط با دو روز پیش باشد یا این که 3 سال پیشین‌خیس.


ظهور رسانه های اجتماعی و تاثیر آنها در سئو

 

شبکه های مردمی پدیده دیگری بود که در آخرها سال 2000 پدیدار و آشکار شد.

 

هم زمان با ظهور رسانه های اجتماعی ، گمانه زنی هایی بر اساس اینکه سیگنال های اجتماعی می‌توانند در سئو در مشهد سکو بندی تأثیر بگذارند ، مطرح شد. رسانه های اجتماعی می‌توانند به seo امداد نمایند ، ولی غیرمستقیم – دقیقاً مانند بقیه گونه های بازاریابی که میتواند به ارتقاء ترافیک وب سایت و محبوبیت مارک یاری نمایند. اگرچه تأثیر شبکه های مردمی در seo ( مانند اخذ لایک ، ریتوئیت ) بوسیله Google بارها رد گردیده‌است ، ولی کماکان تحت عنوان یک فاکتور اصلی در مرتبه بندی وب سایت ها شناخته میشود.

 

 

 

گلشن وحش گوگل!

تاریخچه دو به روزرسانی اساسی الگوریتم ها ، به سال 2011 و 2012 گشوده میشود که تأثیر متعددی بر seo داشتند که تاکنون نیز پابرجا می باشند ، الگوریتم های پاندا و پنگوئن که با مقصود دادن امتیاز و جایزه به وب سایت هایی با محتوای کیفیت بالا می باشند در امسال ها رونمایی شدند.

 

تاریخچه تغییرات بهینه سازی به واسطه الگوریتم پاندا

طبق پیشینه بدست آمده در سال 2011 ، گوگل نتیجه ها جستجوی خویش را با تمرکز بیشتری همپا کرد و وب سایت هایی با وسعت متعددی از محتوای بی کیفیت را در نتیجه ها بهینه سازی افت جایگاه بخشید. با ارائه الگوریتم پاندا بخش اعظمی از وب سایت ها یک شبه جایگاه خویش را از دست دادند.

 

با مقصود از در بین بردن محتوا هایی کیفیت بالا تحت ، الگوریتم پاندا طی سالهای بعد از آن به صورت عصر ای آپدیت رسانی شد ، در غایت در سال 2016 به صورت آخرین مدرن تبدیل شد.

 

 

 

پیدایش الگوریتم پنگوئن

در پی تارنما های بی کیفیت و متقلبی که از الگوریتم پاندا جان سلامت به در برده بودند با اجرا الگوریتم پنگوئن با غرض رویارویی با بکلینک های هدفمند و پیوند سازی غیرطبیعی ، از پا در آمدند. هرچند که پنگوئن نسبت به الگوریتم پاندا مکررا به روزرسانی نشد ولی در سال 2016 به صورت مدرن و تکامل یافته خویش دست یافت.

 

نمودار علم گوگل

در ماه می 2012 ، گوگل از نمودار علم (Knowledge Graph) رونمایی کرد. این یک تغییر تحول تعالی در فهم و شعور و تعبیروتفسیر و معناشناسی کلمه ها کلیدی به شمار می‌رفت.

 

نمودار علم شما‌را حاذق می سازد در جستجوی هر چیزی ، اشخاص یا این که مکانهایی که گوگل از آن‌ها مطلع میباشد مثل جای های جالب ، اشخاص دارای اسم و رسم ، شهرها ، تیمهای ورزشی ، ساختمانها ، حالت های جغرافیایی ، فیلمها ، اثر ها هنری و موردها دیگر اطلاعاتی را که در جستجوی آن می باشید بدست آورید . این معنی کوشش داراست کاوش را از شرایط ماشینی بیرون نماید و به نسل جدیدی از موتور های کاوش برپایه اخلاق و فهم و شعور انسانی مجاورت خیس کند.

 

مرغ مگس خوار

مرحله بعدی از پیاده سازی نسل نو طریق های کاوش در گوگل در سپتامبر 2013 به واسطه الگوریتم مرغ مگس خوار hummingbird پباده سازی شد. که مقصود از آن ارتقا فهم و شعور عبارات و رابطه بین انها و تاثیرگذاری آن در کاوش بود.

 

 

 

سال تلفن همراه

در سال 2005 اهمیت گوشی تحت عنوان ابزاری در مبادرت به جستجوی یوزرها در گوگل مطرح شد البته تا سالیان آنگاه نیز تاثیر گوشی در تغییرات طرز ها و نتیجه ها کاوش خیلی چشمگیر نبود.

 

آخر و عاقبت ، سال 2015 را می قدرت سال تلفن همراه نامگذاری کرد یعنی به عبارتی نقطه ای که کاوش بواسطه تلفن همراه برای اولی توشه در گوگل از جستجوی دسکتاپ پیشی گرفت. اگرچه این آمار صرفا برای جستجوها درست گو میباشد و نرخ تبدیل از روش گوشی کماکان تحت خیس از دسکتاپ میباشد.

 

همینطور در امسال گزارش هایی ارائه شد که حاکی از این بود که کابرانی که صرفا از تلفن همراه برای کاوش استعمال می نمایند از کابرانی که تنها از دسکتاپ به کار گیری می نمایند بیشتر می باشند.

 

درپی در سال 2015 گوگل یک الگوریتم هم برای گوشی و یوزرها موبایلی ارائه بخشید.


فاکتورهای اسپم On-Site

 

175. جریمه الگوریتم پاندا

وب سایت‌هایی که محتوای نادر کیفیتی دارا‌هستند در حاصل کاوش کمتر چشم خواهند شد؛ به سئو در مشهد ویژه در حالتی که پیش از اینً جریمه پنالتی گوگل را اخذ کرده باشند.

 

176. پیوند دادن به وب سایت‌های بی کیفیت

پیوند دادن به تارنما‌های بی کیقیت و اسپم آرم این میباشد که وبسایت شما هم کیفیت پایینی دارااست؛ این عمل به چشم شدن تارنما در موتورهای کاوش لطمه می‌زند.

 

177. ریدایرکت‌ها

تغییر تحول مسیرهای خطا و زیاد نباید واقعه بیفتد. این آیتم خیر فقط موجب جریمه شدن وبسایت می گردد، بلکه گهگاه تارنما را از وضعیت ایندکس بیرون می‌نماید.

 

178. پاپ آپ یا این که تبلیغات مزاحم

ورقه ها و راهنمای قانونی سکو‌بندی گوگل می گوید که پاپ آپ‌ها و تبلیغات مزاحم آرم‌دهنده یک وبسایت باکیفیت ذیل میباشد.

 

179. پاپ‌آپ‌های مجموع ورقه

گوگل ممکن میباشد تارنما‌هایی که پاپ‌‌های مجموع شیت دارا‌هستند جریمه نماید، زیرا سبب میشوند مخاطب محتوای شیت را نبیند. اما این تک تک کاغذ‌ها هم اشکال مختلفی دارا هستند که گوگل روی برخی از آن ها آلرژی بیشتری دارااست. در نوشته‌علمی پاپ آپ میتوانید این تبلیغات را بشناسید.

 

180. باصرفه‌سازی بیش تر از حد تارنما

تارنما‌هایی که بیش ازحد باصرفه‌سازی گردیده‌اند، بوسیله گوگل جریمه می گردند و مرتبه ذیل‌تری میگیرند. سئو بیشتراز حد مشتمل بر مواقعی مثل استعمال بیشتراز حد از کلمه ها کلیدی، تیتر‌های زیاد و معماری نامناسب میباشد.


فایل Robots.txt چیست؟ چه تاثیری بر سئو دارد؟

 

فولدر Robots.txt یک فولدر متنیست که وبمسترها با ساخت‌و‌ساز آن میتوانند ربات های موتورهای کاوش سئو در مشهد را در هنگام پایش تارنما پند نمایند. فولدر robots.txt جزیی از پروتکلی با اسم REP میباشد که به استانداردسازی روش پایش اینترنت بوسیله رباتها و چگونگی دسترسی و ایندکس محتوا و ارائه آن به یوزرها می‌پردازد. پروتکل REP همینطور مشتمل بر روش عکس العمل با متا تگ Robots و دستوراتی دیگری مانند فالو کردن پیوند ها نیز میباشد.

 

 

در شغل فولدر های robots.txt به user agent ها (مانند ربات های موتورهای کاوش) اشاره می نمایند که کدام صفحه ها را پایش و به کدام مسیرها کاری نداشته باشند. این ارشاد ها در پوسته دستوراتی مانند Allow و Disallow به آن‌ها داده میشود.

 

 

 

فرمت ابتدایی این پوشه به صورت تحت میباشد:

 

User-agent: [user-agent اسم]

 

Disallow: [یو آر الی که نبایست پایش خواهد شد]

 

با به کارگیری از این فولدر می قدرت اوامر متفاوتی برای user agent های متعدد نوشت. کافیست که هرکدام از دسته اوامر برای یک user agent را با یک خط چین از دیگری متمایز کنیم. به تصویر پایین دقت فرمایید:

 

 

 

در‌حالتی که که چند تیم فرمان برای چندین user agent در پوشه robots.txt تولید گردیده باشد، هر user agent اوامر مختص به خویش را میخواند. از جمله به تصویر پایین اعتنا فرمائید:

 

 

 

با دقت به امرها بالا، user agent با اسم msnbot صرفا به دسته امرها نصیب نخستین دقت می نماید. در شرایطی که که user agent وارداتی به وب سایت جز هیچ یک از این آیتم ها نباشد، اوامر نصیب دوم که با user-agent: * استارت شد‌ه‌است را دنبال می نماید.

 

نمونه هایی از فولدر robots.txt

به‌دنبال نمونه هایی را از پوشه robots.txt برایتان مهیا کرده ایم. اعتنا داشته باشید که‌این پوشه در مسیر روت تارنما یعنی نشانی www.example.com/robots.txt جای‌دارد.

 

خودداری از دسترسی مجموع پایشگر ها به آحاد تارنما:

 

User-agent: *

 

Disallow: /

 

این اوامر در فولدر robots.txt به تک تک پایشگرهای اینترنت اعلام می نماید که هیچ شیت ای در دامنه www.example.com را پایش نکنند.

 

دسترسی دادن به کل صفحه های وب سایت به کل پایشگرها:

 

User-agent: *

 

Disallow:

 

این امرها در پوشه robots.txt به مجموع پایشگرهای اینترنت اعلام می نماید که می‌توانند کل صفحه ها دامنه www.example.com را پایش نمایند.

 

بلاک کردن دسترسی یک پایشگر به خصوص از یک پوشه معلوم:

 

User-agent: Googlebot

 

Disallow: /example-subfolder/

 

این اوامر به پایشگر Googlebot (ربات پایشگر گوگل) اعلام می نماید که یو آر ال های دربرگیرنده www.example.com/example-subfolder/ پایش نکند.

 

بلاک کردن دسترسی یک پایشگر به خصوص از یک شیت اینترنت معین:

 

User-agent: Bingbot

 

Disallow: /example-subfolder/blocked-page.html

 

این امرها به پایشگر Bingbot (ربات پایشگر بینگ) اعلام می نماید که فقط یو آر ال www.example.com/example-subfolder/blocked-page.html را پایش نکند.

 

پوشه robots.txt چه‌گونه فعالیت می نماید؟

موتورهای کاوش دارنده دو وظیفه مهم می باشند:

 

پایش اینترنت برای یافتن محتوای نو

ایندکس کردن محتوا برای کاوش کنندگانی که در پی آن می‌باشند

موتورهای کاوش برای پایش تارنما ها پیوند ها را دنبال کرده و از یک تارنما به سایتی دیگر می‌روند. بدین اخلاق آنان خزیدن یا این که Spidering نیز گفته می‌شود.

 

آنان بعداز وصال به یک سایت، پیش از پایش آن نگاهی به فولدر robots.txt می اندازند. در شکل یافتن این پوشه، آن را خوانده و آن گاه به پایش تارنما ادامه می‌دهند. فولدر های robots.txt به منزله راهبرد پایشگرها برای پایش سایت میباشد. چنانچه که فولدر robots.txt دارنده دستوری برای محصور کردن پایشگرها نباشد (یا این که ابدا هیچ پوشه robots.txt وجود نداشته باشد)، پایشگرها سوای هیچ محدودیتی به مجموع بخش های یافته گردیده رمز زده و آن‌ها را ایندکس می نمایند.