@code2code
در یوتیوب باید proxyدر curl یا در سرور ف-ی-ل-ت-ر- .. ش-ک-ن استفاده کنیم؟
و برای گرفتن تمام آدرسات صفحات سایت aparat چطوری باcurl انجام بدیم(منظورم اینکه بر و تمامی صفحاتی که در این سایت هست رو به ما بده)
کد اینم مث همون آپاراته فقط باید بگردی بینم فایلای ویدئوش کجاهان
کار سختی نیست
بستگی داره به سرورت اگه از ایران وصل میشه خوب مسلما باید شیلترشکن وصل کرد
برای دانلود تمام صفحات میشه از https://github.com/spatie/crawler استفاده کرد
میشه خودت با رجکساز صفحه اول شروع کنی هرچی تگ a هست رو دربیاری و همه اون لینکا رو دانلود کنی
همین جوری از اونا هم تگای a رو استخراج کنی رو هی بری جلو ....
آقا مهدی ببخشید انقدر سوال میپرسم
با curl نمیشه crawler کرد منظورم لینک های یک صفحه نیست لینک های کل سایت آپارات هست
نگاه تو باقی لینکای آپارات رو باید از کجا دراری؟
باید ازر صفحه اول شروع کنی بعد هر صفحه زیرصفحه رو دربیاری و ...
من یه چیزی حواسم نبود بگم inspect گرفتم از صفحه اصلی
تو میتونی لیست ویدئو ها رو از لینک https://api.aparat.com/fa/v1/video/video/index
که یه فایل جیسون میده بهت بعد لینک بعدی رو میتونی توی more بهت میده ... اینو میتونی استفاده کنی
@code2code
اقا مهدی راه ارتباط مثل ایمیل یا linkedinنداری تا با هم در ارتباط باشیم
این ایمیل منه
netwons@gmail.com
@code2code
ممنون
آقا مهدی برای نمایش سایت mega.nz توسط curl من هر کاری کردم نشد میشه یه راهنمایی کنی بعضی ها گفته بودن که کدش جاوا اسکریپت استفاده شده بخاطر همین با curl نمیشه نشان داد میشه راهنمایی کنید
بله به صورت spa نوشته شده باید لینکای api هاشو به دست بیاری و واسه اونا ریکوئست بفرستی
اینو ببین https://stackoverflow.com/a/3019085/3231397
@code2code
در آخرای صفحه قبل گفتید که میشه ۱۰۰ لینکو به وسیله shellلینوکس دانلود کنی
می خواستم بدونم من اگه روی سرور بگذارم میشه در روز ۱۰۰۰تا لینک بدیم و بدون مشکل بره و دانلود کنه؟
میشه توضیح کاملی بدید؟
طبق کد
میشه میتونی بستگی به حجم و پهنای باندت داره
حتی میتونی واسه سرعت موازی هم چندتا لینک بذاری
توی shell میشه با & چندتا دستو رو همزمان اجرا کرد ...
@code2code
آقا مهدی پس لود صفحه چی میشه منظورم اینکه مگه میشه صفحه رو لود کنیم و این لود به مدت طولانی کار کنه
نگاه تو میتونی شل رو بندازی توی بک گراند که دیگه هی صفحه لود نشه
و ضمنا تو میتونی یه کار دیگه بکنی متونی از کلاس command لاراول استفاده کنی
کار به این صورت انجام بده ۱- توی یه کنترلر لینکا رو بگیر و توی دیتابیس ذخیره کن
۲- توی کلاس command لاراول این از دیتابیس این لینک رو بگیر و بگو که دانلودش کن
۳- یه کرون جاب بنویس که هر دقیقه بره این کامند رو بخونه و اجرا کنه (و هر فایلی که دانلود شد توی دیتابیس بنویس که دانلود شده و تمام )
کرون جاب و کامند هم توی داکیومنت لاراول کامل هست
خدایش بهترین راه ممکنه دیگه
@code2code
میشه دانلود هم کرد
راستی aria2روی سرو هم جواب میده یا باید چیزیو فعال کنیم؟
بعدش تو صفحه قبل دستور aria2 , در curl قرار دادی موقع لود مشکلی پیش نمیاد بگه که بیش از چند ثانیه لود شده پس عملیات قطع بشه
@code2code
آقا مهدی سلام
من این کارو در لاراول کردم اما در سرور جواب نمیده(چیو باید فعال کنم) در لوکال هم جواب میده اما برای بار دوم صفحه رو لود میکنم خیلی طول میکشه آیا از این دستور استفاده کنم Artisan::call('cache:clear')
ویک سوال دیگه این که من الان می خواهم چیزی رو با نام دلخواه دانلود کنم اما نمیشه اینم دستورم
echo exec('aria2c -o '.$cc2.'.mp4 '.$st18);
آیا مایل به ارسال نوتیفیکیشن و اخبار از طرف راکت هستید ؟