نمایش نتایج: از شماره 1 تا 2 , از مجموع 2

موضوع: آموزش بارگزاری دیتابیس های بزرگ و حجیم

  1. #1
    موسس و مدیر
    نمی‌دانم در کدامین کوچه جستجویت کنم ؟ آسوده بخواب مادر بیمارم
    تاریخ عضویت
    Feb 2010
    محل سکونت
    13 78 57
    نوشته ها
    13,577
    تشکر تشکر کرده 
    15,753
    تشکر تشکر شده 
    17,227
    تشکر شده در
    4,905 پست
    حالت من : Khoonsard
    قدرت امتیاز دهی
    24982
    Array

    پیش فرض آموزش بارگزاری دیتابیس های بزرگ و حجیم

    به نام دوست که هر چه داریم از اوست
    با توجه به پیشرفت عرصه وب، تقاضا برای استفاده از دیتابیس های حجیم توسط سیستم های مدیریت محتوا نیز افزایش چشم گیری داشته است، لذا یکی از مهمترین مشکلات کاربران پس از انتقال سرویس، وارد نمودن یا بارگزاری دیتابیس قبلی در سرویس جدید می باشد. ممکن است شما نیز بلاگ و یا انجمنی پر بازدید همراه با حجم زیادی از اطلاعات مختلف را مدیریت نموده و فکر اینکه روزی جهت انتقال سرویس هاست و یا سرور خود نیاز به انتقال و بارگزاری این حجم عظیم از اطلاعات داشته باشید موجب آزار شما شده باشد. خصوصا که در چنین مواقعی نرم افزار محبوب phpmyadmin چندان کارایی نخواهد داشت. این مشکل با اسکریپت سبک و کم حجم BigDump حل شده است. هدف نویسنده این اسکریپت این مهم بوده است که با کمترین سطح دسترسی و امکانات و افزونه های نصب شده، کاربر به سادگی بتواند دیتابیس های حجیم خود را در mysql بارگزاری نماید. گفتنی است SQL مخفف Structured Query Language زباني ساخت يافته براي پرس و جو از بانك اطلاعاتي ميباشد . با استفاده از SQL ميتوانيد داده های مورد نیاز را ذخیره، جستجو و ویرایش نمایید که این مهم قبلا توسط سیستم مدیریت محتوی سایت شما طراحی شده است و نیازی نیست تا شما اقدامی دیگر صورت دهید. اگرچه SQL زباني تحت استاندارد ( ANSI (American National Standards Institute مي باشد اما هر بانك اطلاعاتي از نسخه دلخواه خودش استفاده مي كند بنابراين ممكن است بعضي از دستورات در يك بانك اطلاعاتي بنا به نسخه اي از اس كيو ال كه استفاده مي كند با دستورات در بانك اطلاعاتي ديگر كمي متفاوت باشد. در ادامه به آموزش و نحوه نصب و استفاده از اسکریپت بیگ دامپ برای بارگزاری دیتابیس های حجیم خواهیم پرداخت.

    مراحل نصب اسکریپت BigDump :
    1. آخرین نسخه اسکریپت مورد نظر را با مراجعه به آدرس BigDump: Staggered MySQL Dump Importer دریافت نمایید.
    2. لطفا به پنل مدیریت هاست مراجعه نموده و از طریق بخش mysql manager نسبت به ایجاد دیتابیسی همنام با دیتابیس مورد نظر، اقدام فرمایید. (اطلاعات وارد شده و اتصال به دیتابیس را برای مراحل بعد ذخیره نمایید)
    3. فایل bigdump.php را با notepad باز کرده و مطابق تصویر زیر اطلاعات دیتابیس جدید را وارد نمایید.




    n6qj34auges90vt5zu6




    4. دیتابیس قدیم و اسکریپت اکسترکت شده (دریافت شده از آدرس ذکر شده در مرحله اول ) را در یک دایرکتوری از هاست مقصد آپلود نمایید.



    5. در مرورگر خود به آدرس فایل bigdump.php مانند نمونه بروید: http://www.yourdomain.com/your-directory/bigdump.php

    6. فایل دیتابیس قدیم را از لیست انتخاب و عملیات را شروع نمایید.

    7. صبر نمایید تا عملیات تمام شود، لطفا مرورگر خود را تا انجام کامل عملیات باز نگاه دارید.

    در اینجا مراحل به پایان رسیده است و دیتابیس شما با موفقیت بر روی هاست جدید بارگزاری شده است.
    نکته مهم: حتما پس از انجام عملیات برای جلوگیری از بروز مشکلات امنیتی، فایل های bigdump.php و ***.sql را از سرویس خود حذف نمایید.




    زندگی در بردگی شرمندگی است * معنی آزاد بودن زندگی است
    سر که خم گردد به پای دیگران * بر تن مردان بود بار گران




  2. کاربر مقابل از Mohamad عزیز به خاطر این پست مفید تشکر کرده است:


  3. #2
    موسس و مدیر
    نمی‌دانم در کدامین کوچه جستجویت کنم ؟ آسوده بخواب مادر بیمارم
    تاریخ عضویت
    Feb 2010
    محل سکونت
    13 78 57
    نوشته ها
    13,577
    تشکر تشکر کرده 
    15,753
    تشکر تشکر شده 
    17,227
    تشکر شده در
    4,905 پست
    حالت من : Khoonsard
    قدرت امتیاز دهی
    24982
    Array

    پیش فرض پاسخ : آموزش بارگزاری دیتابیس های بزرگ و حجیم

    Usage

    1. Download and unzip bigdump.zip on your PC.
    2. Open bigdump.php in a text editor, adjust the database configuration and dump file encoding.
    3. Drop the old tables on the target database if your dump doesn’t contain “DROP TABLE” (use phpMyAdmin).
    4. Create the working directory (e.g. dump) on your web server
    5. Upload bigdump.php and the dump files (*.sql or *.gz) via FTP to the working directory (take care of TEXT mode upload for bigdump.php and dump.sql but BINARY mode for dump.gz if uploading from MS Windows).
    6. Run the bigdump.php from your web browser via URL like http://www.yourdomain.com/dump/bigdump.php.
    7. Now you can select the file to be imported from the listing of your working directory. Click “Start import” to start.
    8. BigDump will start every next import session automatically if JavaScript is enabled in your browser.
    9. Relax and wait for the script to finish. Do NOT close the browser window!
    10. IMPORTANT: Remove bigdump.php and your dump files from your web server.

    Advanced notes

    Note 1: BigDump will fail processing large tables containing extended inserts. An extended insert contains all table entries within one SQL query. BigDump isn’t able to split such SQL queries. In most cases BigDump will stop if some query includes to many lines. But if PHP complains that allowed memory size exhausted or MySQL server has gone away your dump probably also contains extended inserts. Please turn off extended inserts when exporting database from phpMyAdmin. If you only have a dump file with extended inserts please ask for our support service in order to convert it into a file usable by BigDump.
    Note 2: If you want to upload the dump files via web browser give the scripts writing permissions on the working directory (e.g. make chmod 777 on a Linux based system). You can upload the dump files from the browser up to the size limit set by the current PHP configuration of the web server. Alternatively you can upload any files via FTP. Some web servers disallow script execution in the directory with writing permissions for security reasons. If you changed the permissions on the working directory and you are getting a server error when running the script restore the permissions to their normal state (chmod 755) for directories.
    Note 3: If Timeout errors still occur you may need to adjust the $linespersession setting in bigdump.php.
    Note 4: If mySQL server overrun occurs you can use $delaypersession setting to let the script sleep some milliseconds or more before starting next session. This setting will only work if the JavaScript is activated.
    Note 5: BigDump is currently not able to restore a single dump file with multiple databases inside (switched by the USE statement). BigDump is also not able to restore a single specific database from the dump file containing multiple databases.
    Note 6: If you experience problems with non-latin characters while using BigDump you have to adjust the $db_connection_char_set configuration variable in bigdump.php to match the encoding of your dump file.
    Note 7: GZip support is only available with PHP 4.3.0 and later. Using a huge GZip compressed dump file can cause the script to exceed the PHP memory/runtime limit since the dump file has to be unpacked from the beginning every time the session starts. If this happens use the uncompressed dump. It’s your only chance.
    Note 8: It’s not a very good idea, but if you can also import from CSV file into one mySQL table using Bigdump. You have to specify the table name in $csv_insert_table. Please also check other CSV settings in the Bigdump configuration.War dieser Beitrag hilfreich? Empfehlen Sie ihn weiter!
    زندگی در بردگی شرمندگی است * معنی آزاد بودن زندگی است
    سر که خم گردد به پای دیگران * بر تن مردان بود بار گران




  4. کاربر مقابل از Mohamad عزیز به خاطر این پست مفید تشکر کرده است:


علاقه مندی ها (بوک مارک ها)

علاقه مندی ها (بوک مارک ها)

مجوز های ارسال و ویرایش

  • شما نمیتوانید موضوع جدیدی ارسال کنید
  • شما امکان ارسال پاسخ را ندارید
  • شما نمیتوانید فایل پیوست در پست خود ضمیمه کنید
  • شما نمیتوانید پست های خود را ویرایش کنید
  •  

http://www.worldup.ir/