یلدا ادامه داره... ❤️ ۴۰ درصد تخفیف همه دوره‌ها

استفاده از تخفیف‌ها
ثانیه
دقیقه
ساعت
روز
iran
5 سال پیش توسط iran مطرح شد
4 پاسخ

scraping با لاراول

سلام دوستان
من برای یه پروژه با لاراول باید حدود هزارتا وبسایت رو scrape کنم و ازشون اطلاعات واکشی کنم، اون هم به صورت همزمان، تا بتونم هر نیم ساعت این عملیات رو به صورت خودکار انجام بدم. کسی می تونه راهنمایی کنه با چه پکیجی میشه این کار رو کرد؟


ثبت پرسش جدید
madadi
@madadi 5 سال پیش مطرح شد
1

سلام لاراول و اصولا پی اچ پی برا اینکار اصلا مناسب نیست
من انجام دادم با گو یا پایتون انجام بدین


علی بیات
تخصص : توسعه دهنده ارشد وب
@ali.bayat 5 سال پیش آپدیت شد
2

درود
با کمی تغییرات در سیستم این حالت رو می‌تونید با لاراول هم پیاده‌سازی کنید.
مثلا اینکه شما با فرستادن 1000 تا درخواست همزمان به سرورهای مختلف .. یه بار ترافیکی سنگین روی سرور بوجود میارید. اگر قرار باشه هر نیم ساعت یه بار اطلاعات به روز بشند ... می‌تونید در طی این نیم ساعت درخواست هارو بفرستید و بگیرید و در دیتابیس ذخیره کنید.. در لاراول میشه یه کلاس Job بوجود آورد و جاب ‌ها رو queue کرد


iran
@meh.iranpour 5 سال پیش مطرح شد
0

پکیج مناسب برای این کار سراغ ندارید؟


سجاد
تخصص : برنامه نویس
@sajaddp 5 سال پیش مطرح شد
1

سلام
اگر فقط مجبورید از php استفاده کنید بهتره از curl کمک بگیرید. البته اگر فقط قصد خوندن فید دارید راهکارهای دیگری هم هست.
اما اگر دستتون باز هست پیشنهاد بنده اینه که دیتا را با nodeJs واکشی و ذخیره کنید. (برحسب موضوع دیتابسی یا فایل ) و بعد باقی رو با لاراول انجام بدید. چند سال قبل پروژه ای رو به همین سبک جلو رفتیم زیر بار سنگین هم مشکلی پیش نیومد.


برای ارسال پاسخ لازم است وارد شده یا ثبت‌نام کنید

ورود یا ثبت‌نام