چگونه دیتابیس های بالای یک میلیون را تحلیل و بهینه سازی میکنند تا سایت در رکوردهای بالا و بازدید های زیاد دچار مشکل نشود برای یاد گیری چی پیشنهاد میدید
در صورتی که از پایگاه داده های رابطه ای یا RDBMS استفاده میکنید مثل MySQL و SQL Server ایندکس گذاری صحیح روی ستون ها و استفاده مناسب از stored procedure ها و view ها باعث میشه موتور SQL به مرور زمان بطور خودکار بهینه سازی های خوبی در واکشی ها اعمال کنه
استفاده از تکنیکهای replication پایگاه داده(توزیع پایگاه داده در چندین سرور) هم میتونه کمک کنه تا پرفورمنس بالاتری داشته باشید
@amirhossein.d.z
برای بهینه کردن یک میلیون رکورد فقط باید پروسیجر بلد بشیم یا مواردی هم هست میشه بیشتر توضیح بدید
سلام
اگه واقعا به بیگ دیتا رسیدید باید برید سمت apache cassandra
جداولی که سنگین هستند و حجم دیتای زیادی دارن رو میتونید با مکانیزم های پارتیشن بندی و شاردینگ بهینه سازی کنید که هر کدوم اصول خاص خودشو داره
اما خب خیلی از مواقع واقعیت اینه که اصلا نیازی به سویچ کردن به دیتابیس هایی مثلا کاساندرا نیست چرا که دیتایی که ما داریم اصلا بیگ دیتا محسوب نمیشه و با بهینه کردن کوئری ها یا استفاده ی درست از انجین های مای اس کیو ال نتیجه میگیریم.
همچنین باید ببینید که منظورتون از بیگ دیتا چی هست. مثلا اگه حجم زیاد داده تو جداول خاصی دارید و این جداول بار زیادی روشون هست باز باید بررسی کنید که این بار چه مواقعی و به چه شکلی هست.یک زمان هست که مثلا بیشتر بار سمت کوئری های select هست.
خب یک سولیشن میتونه استفاده از دیتابیس های غیر رابطه ای مثل مونگو دیبی برای فقط همین بخش باشه و برنامه شما به جای select زدن روی دیتابیس اصلی با محتوای کش شده روی مونگو دی بی تعامل داشته باشه .
در کل به نظرم بحث بهینه سازی کاملا تجربی هست.
آیا مایل به ارسال نوتیفیکیشن و اخبار از طرف راکت هستید ؟