یلدا ادامه داره... ❤️ ۴۰ درصد تخفیف همه دوره‌ها

استفاده از تخفیف‌ها
ثانیه
دقیقه
ساعت
روز
Eghbal Shirasb
4 سال پیش توسط Eghbal Shirasb مطرح شد
5 پاسخ

بهبود سئوی سایت

سلام و عرض ادب خدمت دوستان گرامی
دوستان ما سایتی رو طراحی کردیم ولی متاسفانه سئوی آن آنچنان خوب عمل نمیکند و نتایجی که میخوایم رو نمیگیریم با این که به بلاگ و تولید محتوا اهمیت میدیم
سایت رو با ری‌اکت نوشتیم و بک اند لاراول ، و الان دوستان داخل تیم به من میگن که احتمالا به خاطر اینه که با ری‌اکت نوشتیم .
من بهشون گفتم که خزنده های گوگل سایت رو میتونن بخونن و دلیلی نداره به این خاطر باشه
ولی خودم به شک افتادم مخصوصا دیدم راکت هم گویا گویا از ری‌اکت به Livewire تغییر دادن
میخواستم بدونم این ممکنه دلیلش باشه؟
و اگر آره، سایت رو ssr کنم یا به Livewire تغییر بدم؟

آدرس سایت : Linom.ir


ثبت پرسش جدید
فرزین
تخصص : طراح و توسعه‌دهنده‌ی وب
@farzin 4 سال پیش مطرح شد
2

سلام خدمت شما دوست عزیز.
بدون ssr بنا به چند دلیل نتیجه‌ی سئوی خوبی نمی‌شه گرفت که خیلی مختصر خدمتتون توضیح می‌دم.
روند کلی اینجوریه که ربات‌های گوگل وقتی با وبسایت شما مواجه می‌شن اول html رو دانلود می‌کنه، بعد css و js رو و حالا با سرویس (WSR) اول parsing رو انجام میده‌ و بعدش نوبت به کامپایل و اجرای js می‌رسه. در نهایت تمامی اطلاعات لازم رو از API فچ میکنه و خروجی ارسال میشه به سیستم ایندکسینگ!
خب حالا چندتا مشکل به وجود میاد:
۱- همون طور که متوجه شدید روندی که گوگل در پیش می‌گیره برای ایندکس وبسایت شما به مراتب سخت تره نسبت به حالتی که باید یک html ساده رو پردازش کنه، به همین خاطر هم فرایند طولانی تر می‌شه. گوگل چیزی داره به اسم crawling budget برای هر بات، یعنی ماکزیمم تعداد صفحاتی که این بات می‌تونه در یک بازه‌ی زمانی مشخص crawl کنه. حالا این پروسه‌ی طولانی باعث می‌شه که گاهی رندر کردن یه پیج شما از اون بودجه‌ی تعریف شده بیشتر بشه! که همین باعث می‌شه که برخی از پیج‌ها اصلا ایندکس نشن.
۲- گوگل باید js رو کامپایل و اجرا کنه توی سیستم WSR، حالا اگه یه ارور خیلی خیلی کوچیک وجود داشته باشه، کل این فرایند متوقف می‌شه.
۳- اگه api شما اطلاعات رو دیر برگردونه (از دید گوگل) عملا بات‌ها با یک صفحه‌ی بی محتوا مواجه می‌شن که طبیعتا این از دید گوگل اصلا مناسب نیست.

نتیجه: الان و با توجه به متد‌هایی که گوگل در پیش گرفته، استفاده از SPA بدون SSR نتیجه‌ی مطلوبی در سئو نخواهد داد. هرچند هرروز و با بالا رفتن تعداد وبسایت‌هایی که به حالت SPA پیاده سازی می‌شن گوگل این پروسه رو بهینه تر می‌کنه.


حسام موسوی
تخصص : طراح و برنامه نویس
@hesammousavi 4 سال پیش مطرح شد
4

درود بر شما
چند نکته‌ای رو اشاره کنم بهش
راکت از ابتدا به شکل mpa طراحی شده بود و برای پویا سازی بخش‌های مختلف ما از vue.js استفاده کردیم.
اما با اومدن livewire به دلیل اینکه بیشتر میتونستیم با اون تمرکزمون رو در لاراول حفظ کنیم و درگیر کدهای vue نشیم رفتیم سمت استفاده ازش که راضی هم هستیم واقعا سرعت توسعه پروژه ما چند برابر شده
اما در مورد سئو اگر از vue یا react یا ... استفاده میکنید جدای از اینکه گوگل index میکنه یا نه باید ssr رو پیاده کنید
طبق چیزی که دارم میبینم سایت‌های که بدونه ssr پیش رفتن دچار مشکل شدن تو همین بحث سئو


devsd
@charaposting 4 سال پیش مطرح شد
0

سلام آقا حسام دمت گرم واقعا خیلی خوشم میاد ازت هم نابغه هستی هم خیلی پر تلاش انشالله سایت راکت بشه رتبه اول توی حوزه آموزش همونطوری که الان رتبه 1 هست به نظرم.


mahdi2k
تخصص : junior full stack developer
@mahdifalahati75 4 سال پیش مطرح شد
1

یه موردی که هست قبلا روی عکس مقالات یا دوره ها که کلیک میکردیم وارد اون مقاله یا دوره میشد ولی الان نمیشه .من خودم دوست دارم وقتی روی عکس کلیک شد وارد اون مقاله یا دوره بشم ولی حالا نمی دونم چرا لینک کردن عکس ها رو برداشتین
@hesammousavi


فرزین
تخصص : طراح و توسعه‌دهنده‌ی وب
@farzin 4 سال پیش مطرح شد
2

سلام خدمت شما دوست عزیز.
بدون ssr بنا به چند دلیل نتیجه‌ی سئوی خوبی نمی‌شه گرفت که خیلی مختصر خدمتتون توضیح می‌دم.
روند کلی اینجوریه که ربات‌های گوگل وقتی با وبسایت شما مواجه می‌شن اول html رو دانلود می‌کنه، بعد css و js رو و حالا با سرویس (WSR) اول parsing رو انجام میده‌ و بعدش نوبت به کامپایل و اجرای js می‌رسه. در نهایت تمامی اطلاعات لازم رو از API فچ میکنه و خروجی ارسال میشه به سیستم ایندکسینگ!
خب حالا چندتا مشکل به وجود میاد:
۱- همون طور که متوجه شدید روندی که گوگل در پیش می‌گیره برای ایندکس وبسایت شما به مراتب سخت تره نسبت به حالتی که باید یک html ساده رو پردازش کنه، به همین خاطر هم فرایند طولانی تر می‌شه. گوگل چیزی داره به اسم crawling budget برای هر بات، یعنی ماکزیمم تعداد صفحاتی که این بات می‌تونه در یک بازه‌ی زمانی مشخص crawl کنه. حالا این پروسه‌ی طولانی باعث می‌شه که گاهی رندر کردن یه پیج شما از اون بودجه‌ی تعریف شده بیشتر بشه! که همین باعث می‌شه که برخی از پیج‌ها اصلا ایندکس نشن.
۲- گوگل باید js رو کامپایل و اجرا کنه توی سیستم WSR، حالا اگه یه ارور خیلی خیلی کوچیک وجود داشته باشه، کل این فرایند متوقف می‌شه.
۳- اگه api شما اطلاعات رو دیر برگردونه (از دید گوگل) عملا بات‌ها با یک صفحه‌ی بی محتوا مواجه می‌شن که طبیعتا این از دید گوگل اصلا مناسب نیست.

نتیجه: الان و با توجه به متد‌هایی که گوگل در پیش گرفته، استفاده از SPA بدون SSR نتیجه‌ی مطلوبی در سئو نخواهد داد. هرچند هرروز و با بالا رفتن تعداد وبسایت‌هایی که به حالت SPA پیاده سازی می‌شن گوگل این پروسه رو بهینه تر می‌کنه.


سعید
تخصص : برنامه نویس وب
@Saeeed 4 سال پیش مطرح شد
2

با لاراول هم میشه ssr رو پیاده کرد.
ولی واقعا ترکیب خوبی نیست و تا اخرش حتما کچل میشی. :)
طبق تجربه من برای ری اکت و ویو حتما باید از سرور نود استفاده کرد حالا هر فرمورکی از نود باشه.


برای ارسال پاسخ لازم است وارد شده یا ثبت‌نام کنید

ورود یا ثبت‌نام