دانلود تحقیق موتورهای جستجوگر

Word 80 KB 17877 24
مشخص نشده مشخص نشده کامپیوتر - IT
قیمت قدیم:۱۶,۰۰۰ تومان
قیمت: ۱۲,۸۰۰ تومان
دانلود فایل
  • بخشی از محتوا
  • وضعیت فهرست و منابع
  • با پیشرفت بشر در زمینه‌های مختلف علمی و افزایش سطح آگاهی انسان درباره پدیده‌های مختلف و البته نیاز رو به گسترش ما به دانش و اطلاعات در این عصر زمینه برای بروز پدید‌ه‌های مختلفی که بتواند خواسته‌های علمی و اطلاع رسانی انسان را برای برآورده‌ سازد افزایش یافته است .

    با ساخت کامپیوتر در اواسط قرن گذشته مقداری از نیازهای انسان برآورده شد با گذشت زمان این دستگاه در قسمتهای مختلف جامعه نفوذ کرد و تا امروز که در جاهایی مانند مراکز نظامی، پزشکی و اداری به وفور استفاده می‌شود .
    در دهه‌های پایانی قرن گذشته با افزایش نیازبه اطلاعات بصورت روزانه گسترش ارتباط بین سازمانها و نهادها .

    نیاز به یک شبکه جهانی احساس شد که هم اطلاعات به روز شده و فراوانی بتواند در آن وجود داشته باشد و هم به سادگی و ارزان در اختیار مردم قرار گیرد .

    که اینترنت بر این اساس شکل گرفت .

    امروزه اینترنت به سرعت در حال وارد شدن به زندگی مردم است این رسانه با مطالب فراوان و متنوعی که دارد توانسته است قشرهای مختلف مردم را به خود جذب کند .
    امروزه عده زیادی از مردم عادی، ادارات دولتی، سازمانها ، … در روز از اینترنت استفاده می‌کنند .

    به همین خاطر به مکانیزمی نیاز شد که کاربران بتوانند امکان جستجو داشته باشند در نتیجه موتورهای جستجوگر در این رسانه ایجاد شده است تا بتواند مطالب مورد نظر کاربر را به سرعت پیدا کنند .
    موتورهای جستجو از ابتدای تشکیل خود با امکان جستجوی مطلب در بعضی از سایتهای اینترنتی قرار گرفتند.

    این سایتها با گذشت زمان توانستند مکانیزم جستجوی خود را بهینه و از طرفی گسترده‌تر کنند .

    با گسترش استفاده از اینترنت احتیاج به موتور جستجوی فارسی بشدت مشاهده می‌شد که این کار توسط GOOGLE انجام شده است .

    و می‌توان به کمک آن اطلاعات فراوانی را بصورت فارسی در زمینه‌های مختلف بدست آورد .

    گستردگی این مطالب بقدری زیاد است که پیشنهاد می‌شود که هر کاربر اسم خود را یک بار در موتور جستجو نوشته و نتیجه کار را مشاهده کنند .


    سایتهای موتور جستجو در حال حاضر نیز در حال بهتر کردن الگوریتم جستجوی خود و اضافه کردن کارایی‌های دیگر به سایت خود هستند که در قسمت پایانی تحقیق آمده است .

    در این تحقیق سعی شده است مطالبی راجع به موتورهای جستجو و انواع آن و نسل
    آینده آنها مطالبی آورده شده است .
    موتور جستجوگر چگونه کار می کند ؟
    وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارائه می‌شود، کاربر در واقع نتیجه کار بخش‌های متفاوت آن موتور جستجوگر را می‌بینند .
    موتور جستجوگر قبلاً پایگاه داده‌اش «Database » را آماده کرده است و این گونه نیست که در همان لحظه جستجو، تمام وب را بگردد .

    بسیاری از خود می‌پرسند که چگونه امکان دارد گوگل « Google » در کمتر از یک ثانیه تمام سایت‌های وب را بگردد و میلیون‌ها صفحه را در نتایج جستجوی خود ارائه کند ؟


    نه گوگل و نه هیچ موتور جستجوگر دیگری توانایی انجام این کار را ندارد.

    همه آنها در زمان پاسخ‌گوی به کاربران، تنها در پایگاه داده‌ای که در اختیار دارند به جستجو می‌پردازند و نه در وب !

    موتور جستجوگر به کمک بخش‌های متفاوت خود، اطلاعات مورد نیاز قبلاً جمع‌آوری، تجزیه و تحلیل می‌کند و آنرا در پایگاه داده‌اش ذخیره می‌نماید، بخش‌های مجزای یک موتور جستجوگر عبارتند از :
    • Spider یا عنکبوت
    • Crawler یا خزنده
    • Indexer یا بایگانی کننده
    • Database یا پایگاه داده
    • Ranker یا سیستم رتبه بندی
    الف Spider (عنکبوت)
    اسپایدر یا روبوت « Robot » نرم افزاری است که کار جمع‌آوری اطلاعات مورد نیاز یک موتور جستجوگر را بر عهده دارد .

    اسپایدر به صفحات مختلف سر می‌زند، محتوای آنها را می‌خواند و اطلاعات مورد نیاز موتور جستجوگر را جمع‌آوری می‌کند و آنرا در اختیار سایر بخش‌های موتور جستجوگر قرار می‌دهد.
    کار یک اسپایدر، بسیار شبیه کار کاربران وب است.

    همانطور که کاربران، صفحات مختلف را بازدید می‌کنند، اسپایدر هم این کار را انجام می‌دهد با این تفاوت که اسپایدر کدهای HTML صفحات را می‌بیند اما کاربران نتیجه حاصل از کنار هم قرار گرفتن این کدها را.


    اسپایدر، به هنگام مشاهده صفحات، از خود بر روی سرورها « رد پا بر جای می‌گذارد .

    شما اگر اجازه دسترسی به آمار دید و بازدید‌های صورت گرفته از یک سایت و اتفاقات انجام شده در آنرا داشته باشید، می‌توانید مشخص کنید که اسپایدر کدام موتورهای جستجوگر صفحات سایت را مورد بازدید قرار داده‌اند .
    اسپایدر‌ها کاربردهای دیگری نیز دارند، به عنوان مثال عده‌ای از آنها به سایت‌های مختلف مراجعه می‌کنند و فقط به بررسی فعال بودن لینک‌های آنها می‌پردازند و یا به دنبال آدرس پست الکترونیکی « Email » افراد می‌گردند .
    اسپایدر‌ها کاربردهای دیگری نیز دارند، به عنوان مثال عده‌ای از آنها به سایت‌های مختلف مراجعه می‌کنند و فقط به بررسی فعال بودن لینک‌های آنها می‌پردازند و یا به دنبال آدرس پست الکترونیکی « Email » افراد می‌گردند .

    ب ـ Crawler (خزنده ) کراولر، نرم افزاری است که به عنوان فرمانده برای اسپایدر عمل می‌کند.

    کراولر مشخص می‌کند که اسپایدر کدام صفحات را مورد بازدید قرار دهد.

    در واقع کراولر تصمیم می‌گیرد که کدام یک از لینک‌های صفحه‌ای که اسپایدر در حال حاضر در آن قرار دارد، دنبال شود.

    ممکن است همه آنها را دنبال کند، بعضی‌ها را دنبال کند و یا هیچ کدام را دنبال نکند .

    کراولر، ممکن است قبلاً توسط دارندگان موتورهای جستجوگر برنامه‌ریزی شده باشد که آدرس‌های خاصی را طبق برنامه در اختیار اسپایدر قرار دهد تا از آنها دیدن کند .

    دنبال کردن لینک‌های یک صفحه به این بستگی دارد که موتورهای جستجوگر چه حجمی از اطلاعات یک سایت را می‌تواند در پایگاه داده‌اش ذخیره کندو همچنین ممکن است اجازه دسترسی به عضی از صفحات به موتورهای جستجوگر داده نشده باشد.

    شما به عنوان دارنده سایت، همان طور که دوست دارید موتورهای جستجوگر اطلاعات شما را با خود ببرند، می‌توانید آنها را از بعضی از صفحات سایت‌‌تان دور کنید و اجازه دسترسی به محتوای آن صفحات را به موتورهای جستجوگر ندهید .

    تنظیم میزان دسترسی موتورهای جستجوگر به محتوای یک سایت توسط پروتکل Robots انجام می‌شود .

    به عمل کراولر، خزش (Crawling ) می‌گویند.

    ج ـ Indexer ( بایگانی کننده ) تمام اطلاعات جمع‌آوری شده توسط اسپایدر در اختیار ایندکسر قرار می‌گیرد .

    در این بخش اطلاعات ارسالی مورد تجزیه و تحلیل قرار می‌گیرند و به بخش‌های متفاوتی تقسیم می‌شوند .

    تجزیه و تحلیل بدین معنی است که مشخص می‌شود اطلاعات از کدام صفحه ارسال شده است، چه حجمی دارد، کلمات موجود در آن کدام است، کلمات چند بار تکرار شده است، کلمات در کجای صفحه قرار دارند و… .

    در حقیقت ایندکسر صفحه را به پارامترهای آن خرد می‌کند و تمام این پارامترها را به یک مقیاس عددی تبدیل می‌کند تا سیستم رتبه بندی بتواند پارامترهای صفحات مختلف را با هم مقایسه کند.

    در زمان تجزیه و تحلیل اطلاعات، ایندکسر برای کاهش حجم داده‌ها از عضی کلمات که بسیار رایج هستند صرفنظر می‌کند.

    کلماتی نظیر a ، an ، the ، www ، is و … از این گونه کلمات هستند .

    د ـ Database ( پایگاه داده ) تمام داده‌ها تجزیه و تحلیل شده در ایندکسر، به پایگاه داده ارسال می‌گردد.

    در این بخش، داده‌ها گروه‌بندی، کدگذاری، و ذخیره می‌شود .

    هنچنین داده‌ها قبل از آنکه ذخیره شوند، فشرده می‌شوند تا حجم کمی را اشغال کنند.

    یک موتور جستجوگر باید پایگاه داده عظیمی داشته باشد و به طور مداوم حجم محتوای آنرا گسترش دهد و البته اطلاعات قدیمی را هم به روز کند.

    بزرگی و به روز بودن پایگاه داده یک موتور جستجوگر برای آن امتیاز محسوب می‌گردد.

    یکی از تفاوتهای اصلی موتورهای جستجوگر در حجم پایگاه داده آنها و همچنین روش ذخیره سازی داده است .

    و ـ Ranker ( سیستم رتبه بندی ) بعد از آنکه مراحل قبل انجام شد، موتور جستجوگر آماده پاسخ‌گویی به سئوالات کاربران است.

    کاربران چند کلمه را در جعبه جستجوی « Search Box » آن وارد می‌کنند و سپس با فشردن Enter منتظر پاسخ می‌مانند .

    در این مرحله، سیستم رتبه بندی وارد عمل می‌شود و ابتدا تمام صفحات موجود در پایگاه داده، که به موضوع جستجو شده، مرتبط هستند را مشخص می‌کند .

    سپس آنها را به ترتیب از بیشترین ارتباط تا کمترین ارتباط مرتب می‌کند و در نتایج جستجو به کاربر ارائه می‌کند .

    حتی اگر موتور جستجو گر بهتر‌ین و کامل‌ترین پایگاه داده را داشته باشد اما نتواند پاسخ‌های مرتبطی را ارائه کند، یک موتور جستجوگر ضعیف خواهد بود .

    سیستم رتبه‌بندی قلب تپنده یک موتور جستجوگر است و تفاوت اصلی موتورهای جستجوگر در این بخش قرار دارد.

    سیستم رتبه بندی برای پاسخ‌گویی به سئوالات کاربران، پارامترهای بسیاری را در نظر می‌گیرد تا بتواند بهترین پاسخ‌ها را در اختیار آنها قرار دهد.

    الگوریتم ، مجموعه‌ای از دستورالعمل‌ها است که موتور جستجوگر با اعمال آنها بر پارامترهای صفحات موجود در پایگاه داده‌اش ، تصمیم می‌گیرد که صفحات مرتبط را چگونه در نتایج جستجو ، مرتب کند .

    در حال حاضر قدرتمند‌ترین سیستم رتبه‌بندی را گوگل دراختیار دارد .

    البته می‌توان با ادغام کردن وظیفه‌های اسپایدر با کراولر و همچنین ایندکسر با پایگاه داده موتور جستجوگر را شامل سه بخش زیر دانست که این گونه تقسم‌بندی هم درست می‌باشد : کراولر بایگانی سیستم رتبه‌بندی تذکر ـ برای سهولت در بیان مطالب بعدی هرگاه صحبت از بایگانی کردن ( شدن ) به میان می‌آید ، مقصود این است که صفحه تجزیه و تحلیل و به پایگاه داده موتور جستجوگر وارد می‌شود .

    برای آنکه تصور درستی از نحوه کار یک موتور جستجوگر داشته باشید مثال غیر متعارف زیر را با هم بررسی می‌کنیم .

    یک شکارچی تصمیم به شکار می‌گیرد : ـ کار کراولر: او قصد دارد برای شکار به منطقه حفاظت شده ابیورد ، در شهرستان درگز ( شمال خراسان ) برود .

    ـ پروتکل Robots : ابتدا تمام محدودیت‌های موجود برای شکار در این منطقه را بررسی می‌کند : آیا در این منطقه می‌توان به شکار پرداخت ؟

    کدام حیوانات را می‌توان شکار کرد ؟

    حداکثر تعداد شکار چه میزانی است ؟

    و… .

    فرض می‌کنیم او مجوز شکار یک اوریال ( نوعی ‌آهو ) را دریافت می‌کند .

    ـ کار اسپایدر : او اوریال رعنا را شکار می‌کند و سپس آنرا به منزل می‌برد .

    ـ کار ایندکسر : شکار را تکه‌تکه کرده ، گوشت ، استخوان ، دل و قلوه ، کله پاچه و … آنرا بسته‌بندی می‌کند و بخش‌های زاید شکار را دور می‌اندازد .

    ـ کار پایگاه داده : بسته‌های حاصل را درون فریزر قرار داده ، ذخیره می‌کند .

    ـ کار سیستم رتبه‌بندی : مهمان سراغ او می‌آید همسر او بسته به ذائقه مهمانان برای آنها غذا طبخ می‌کند ، ممکن است عده‌ای کله پاچه ، عده‌ای آبگوشت ، عده‌ای جگر و … دوست داشته باشند .

    پخت غذا طبق سلیقه مهمانان کار سختی است .

    ممکن است همه آنها آبگوشت بخواهند اما آنها مسلماً با مزه‌ترین آبگوشت را می‌خواهند !

    انواع موتورهای جستجوگر : موتورهای جستجوگر( با درجات متفاوتی از موفقیت ) در واقع یک کار انجام می‌دهند : فراهم آوردن یک وسیله جستجوی ساده برای کمک به کاربران در رسیدن به اطلاعات مورد نیاز .

    برای نیل به این مهم ، موتورهای جستجوگر از اطلاعات موجود در پایگاه داده‌شان کمک می‌گیرند .

    اطلاعات این پایگاه داده نیز به روش‌های گوناگونی تامین می‌شود .

    کار جمع‌آوری داده را اسپایدرها بر عهده دارند .

    اما آیا همه موتورهای جستجوگر ، اسپایدر دارند ؟

    آیا همه اسپایدرها مثل هم کار می‌کنند ؟

    با توجه به نوع جمع‌آوری اطلاعات ، شیوه ارائه نتایج و مواردی دیگر ، موتورهای جستجوگر به انواع گوناگونی تقسیم می‌شوند که عبارتند از : Saerch Engine Directory Search Engine Pay Per Click Search Engine Specialty Search Engine الف ـ Saerch Engine یا موتورهای جستجوگر در این نوع از موتورهای جستجوگر ، کار جمع‌آوری اطلاعات بر عهده اسپایدرها است .

    در حالت کلی زمانی که صحبت از موتورهای جستجوگر می‌شود ، مقصود ، این نوع آن است .

    پایگاه داده این نوع از موتورهای جستجوگر بزرگتر از سایر انواع است و اطلاعاتی را که آنها ارائه می‌دهند ، معمولاً به روزتر می‌باشد .

    عملیات به روز رسانی و گسترش پایگاه داده موتورهای جستجوگر از یک هفته تا چند ماه به طول می‌انجامد .

    اسپایدرها ، هیچ‌گاه از کار نمی‌ایستند و به طور مداوم به جمع‌آوری اطلاعات مشغول هستند.

    ممکن است اطلاعات جمع‌آوری شده توسط اسپایدرها از صفحات جدیدی باشد و یا اطلاعات به روز شده از صفحاتی بشد که قبلاً هم به آنها مراجعه کرده‌اند .

    وقتی که صحبت از تکنیک‌های بهینه‌سازی رتبه سایت‌ها می‌شود در واقع تکنیک‌هایی مطرح‌اند که برای کار با این نوع ازموتورهای جستجوگر مؤثرند .

    بعضی از این نوع موتورهای جستجوگر عبارتند از : Googole , MSN , Altavista , NorthernLight , WiseNut , Teoma … ب ـ Directory یا فهرست دایرکتوری‌ها اطلاعات را در گروه‌های مختلف دسته‌بندی می‌کنند .

    تفاوت اصلی دایرکتوری با یک موتورهای جستجوگر در این است که دایرکتوری اسپایدر ندارد .

    دارندگان سایت‌ها به دایرکتوری مراجعه می‌کنند ، گروه مناسب برای سایت خود را در آن بر می‌گزینند و سایت‌ خود را به آن گروه معرفی می‌کنند .

    پس از آنکه اطلاعات سایت‌ها به گروه‌های مختلف ارسال شد ، ویراستاران دایرکتوری آن اطلاعات را بررسی می‌کنند .

    در صورتی که گروه درخواست شده ، با زمینه فعالیت سایت معرفی شده یکی باشد و همچنین سایر قوانین دایرکتوری نیز رعایت شده باشد ، سایت معرفی شده را در گروه یاد شده می‌پذیرد و در غیر اینصورت از قبول آن امتناع می‌کنند.

    در صورتی که کاربران استفاده درستی از گروه دایرکتوری بنماید می‌توانند اطلاعات مفیدی رابه کمک آنها کسب کنند .

    دایرکتوری از وجود یک سایت مطلع نمی‌گردد مگر زمانی که آن سایت به دایرکتوری معرفی شود تا در یکی از گروه‌های آن قرار گیرد .

    یکی از ایراداتی که به دایرکتوری‌ها وارد می‌شود این است که سایت‌های مرده زیادی در خود دارند .

    به عبارت دیگر یک سایت بعد از آنکه به آن معرفی شده است دیگر به فعالیت خود ادامه نداده است اما با این حال هنوز هم دایرکتوری آن به عنوان یک سایت فعال به کاربران معرفی می‌کند .

    البته دایرکتوری‌های حرفه‌ای با استخدام ویراستاران زیادی تلاش بسیاری برای رفع این نقص می‌نمایند .امکان دارد دایرکتوری‌ها برای بررسی این مورد از اسپایدر‌ها هم کمک بگیرند .در این مورد خاص ، کار اسپایدر این است که بررسی کند که آیا سایت‌هایی که قبلاً در گروه‌ها قرار گرفته‌اند ،هنوز هم فعال می‌باشند ؟

    قرار گرفتن در پایگاه داده دایرکتوری‌های عمده ، نقش مهمی در کسب رتبه‌های بالا در موتورهای جستجوگر ( نوع اول ) دارد .

    دایرکتوریهای عمده عبارتند از : Yahoo , Look Smart , Dmoz ج ـ Meta Search Engine یا ابر جستجوگر ابر جستجوگر از نتایج سایر موتورهای جستجوگر استفاده می‌کند .

    کار بدین صورت است که سئوالات کاربران را همزمان به موتورهای جستجوگر مختلفی ارسال و نتایج جستجوی آنها را بررسی می‌کند و در نهایت رتبه‌های بالای آنها را با اعمال پارمترهای مورد توجه الگوریتم رتبه‌بندی خود ، به عنوان نتایج جستجوی خود نشان می‌دهد .این نوع موتور جستجوگر اسپایدر ندارد .

    مهمترین آنها عبارنتد از : Meta Crawler , Dogpile , IXQuick , Mamma , Vivisimo , ez2find دـ Pay Per Click Search engine یا موتورهای جستجوگر رتبه‌بندی به ازای پول!

    کار آنها بسیار شبیه یک مزایده است : با توجه به واژه کلیکی انتخابی ، برای بالاترین رتبه ، باید بالاترین قیمت نسبت به سایر متقاضیان پرداخت شود .

    در واقع نحوه ارائه نتایج جستجو در PPC با این ترتیب است که اگر سایتی خواهان بالاترین رتبه (رده اول) در نتایج جستجوی آن می‌باشد ، باید بالاترین رقم به ازای هر کلیک را نسبت به تمام رقبا بپردازد .

    به عنوان مثال اگر سایتی مکان اول را برای عبارت"" Persian carpet به قیمت 28 ریال خریده باشد هر بار که عبارت یاد شده جستجو گردد و کاربر با دنبال کردن پیوند ارائه شده به سایت خریدار مراجعه کند 28 ریال از سوی سایت خریدار رتبه به موتور جستجوگر باید پرداخته شود .

    اگر هزار نفر این کار را انجام دهند آنگاه 1000×28 ریال باید پرداخته شود .

    البته این گونه نیست که این گونه از موتورهای جستجوگر فقط سایت هایی را نمایش دهند که با آنها قرارداد تجاری دارند .

    بلکه ابتدا تمام سایت هایی را که با آنها قرار داد تجاری دارند نمایش می‌دهد و سپس سایت های دیگر را برای تکمیل کردند نتایج جستجوی خود به سایت های یاد شده می افزایند .

    روش ارائه نتایج در یک موتورهای جستجوگر رتبه به ازای پول سایت های رده 110 و 111 برای عبارت "" free stuff هزینه می‌پردازند که بالاتر از سایت رده 112 ایستاده‌اند .

    به عبارت‌های listing sponsored و additional listing توجه کنید .

    فکرش را بکنید که 111 سایت حاضر به پرداخت پول برای این عبارت بوده‌اند در حالی که همه آنها می‌دانسته‌اند در چه رتبه‌ایی نشان داده خواهند شد .

    اگر فرض کنیم که سایت رده 111 برای هر کلیک تنها یک سنت بپردازد و اختلاف هر رتبه با رتبه های دیگر تنها یک سنت باشد آنگاه سایت رتبه اول حاضر به پرداخت 111 سنت برای هر کلیک بوده است .

    سایت های را مشاهده کرده اند که حاضر به پرداخت 14 دلار به ازای هر کلیک نیز بوده اند !

    این رقابت شدید در این نوع از موتورهای جستجوگر می‌تواند ناشی از بازده بسیار بالای این نوع موتورهای جستجوگر و همین طور اطمینان دارندگان سایت ها از فروش خود باشد .

    البته می توانید سایت هایی را که ناشیانه حاضر به پرداخت رقم بالایی را شده اند را هم به دلایل بالا بیافزاید .

    فواید آنها : ـ دارنده سایت تنها زمانی پول می‌پردازد که واقعاً بیننده‌ای به سایت او بیائید .

    ـ سایت تقریباً در عرض چند ساعت و یا حداکثر یک هفته در نتایج جستجو قرار می گیرد و دیگر نیازی به چندین ماه ماندن نیست تا در نتایج جستجوی سایر موتورهای جستجوگر قرار گیرد که آن هم معلوم نیست در چه رتبه‌ایی قرار خواهد گرفت .

    ـ سایتی اگر بالاترین رتبه را می‌خواهد کافی است که بالاترین قیمت را بپردازد و دیگر نیازی به کاربرد تکنیک‌های رایج برای کسب رتبه‌های بالا نیست .

    ـ یک سایت با استفاده از سیستم این موتورهای جستجوگر در نتایج جستجوی شرکای تجاری آنها هم قرار می‌گیرد .

    برخی از آنها عبارتند از : Overture , Googole Adwords , Findwhat , kanoodle ,… ه ـ Specialty Search Engine یا موتورهای جستجوگر خاص این نوع از موتورهای جستجوگر بر موضوعی خاص تمرکز دارند و تنها سایت‌های مرتبط با آن موضوع را در پایگاه داده خود قرار می‌دهند.

    به عنوان مثال یکی از آنها ممکن است تنها سایت‌های ایرانی را بپذیرد و موضوع فعالیتش سایت‌های ایرانی باشد .

    این موتورهای جستجوگر معمولاً اطلاعات تخصصی‌تری را ارائه می‌دهند زیرا معمولاً توسط افراد متخصص درآن زمینه اداره می‌شوند .

    موتورهای جستجوگر منطقه‌ای و موضوعی نیز با این دسته تعلق دارند .

    دراین مورد می‌توان به مواردی نظیر : chemicalSearch , IndustrySearch اشاره کرد .

    نسل بعدی موتور جستجوگر سرعت باور نکردنی و دامنه عملکرد و دسترسی فوق‌العاده موتورهای پر قدرت جستجوی اینترنتی از یک محدودیت و شاید بتوان گفت نقطه ضعف اساسی رنج می‌برند.

    اینکه تنها در پاسخ به کلمات به کار می‌افتند ، اگر لحظه‌ای عمقی به مسئله نگاه کنید ، متوجه موجودیت کسل کننده و یکنواخت این سایت‌ها خواهید شد .

    این درحالی است که جهان فوق‌العاده درخشان ، متنوع و مملو از اشیاء و الگوهایی است که هر یک در برگیرنده توصیفاتی قابل جستجو هستند .

    اکنون پژوهشگران عرصه کامپیوتر به امید بهره‌مندی هر چه بیشتر از این نعمات خداوندی ، موتورهای جستجوگر جدیدی طراحی کرده‌ند که می‌توانند منبع سرشاری از کاتالوگ‌های اشیاء 3 بعدی مانند قطعات هواپیما یا مشخصه‌های معماری را در اختیار کاربران قرار دهند .

    در ورود به این سایت‌ها تنها کاری که خود باید انجام دهد ، آن است که آنچه در ذهن خود دارد و به دنبالش است ، با خطوط کلی ترسیم نماید .

    در این حالت موتورهای جستجو اشیاء مشابه و هم‌تراز آن را در فهرست نتایج آن ارائه می‌کند .

    «کارتیک رامانی » پروفسور دانشگاه « پردیو » و خالق سیستمی که قادر به یافتن قطعات صنعتی طراحی شده توسط کامپیوتر می‌باشد ، در مورد اختراع خود می‌گوید : ایده دانش و اطلاعات و بازیابی آن دانش مدت‌ها بود که توجه و کنجکاوی من را به خود جلب کرده بود و اکنون احساس می‌کنم که مکانیسم ابداعی‌ام مفهومی مستحکم و یکپارچه به این بازاریابی می‌بخشد .

    « رامانی » انتظار دارد موتور جستجویش بویژه برای کمپانی‌های بزرگ صنعتی کاربرد‌های فراوانی داشته باشد خصوصاً این که مهندسین این شرکت‌ها غالباً وقت و انرژی قابل توجهی را صرف طراحی یک قطعه تخصصی می‌کنند در حالی که پیشتر فرد دیگری نوع مشابه آنرا خلق کرده است ، استفاده نموده و و یا کنار گذاشته است « ریک جفز » مهندس ارشد مرکز موتور‌های «کاترپیلار» معتقد است تکنولوژی « رامانی » می‌تواند به کمپانی‌ها در ساده ساختن صورت موجودی‌شان کمک نماید .

    موسسه «جفز» به تنهایی ده‌ها هزار قطعه جورواجور تولید می‌کند «جفز» در تشریح بیشتر موضوع می‌گوید : اگر شما قصد طراحی یک زانویی جدید برای خط لوله نفت را داشته باشید ، در کاخانه‌ها به وفور از این قطعه تولید می‌شود اما خلق CAD در حال حاضر گرچه بسیاری از آنها با کمک نرم‌افزار طراحی کامپیوتری می‌گردند ، برای اینکه بصورت کاتالوگ درآیند ، بایستی هر یک جداگانه مورد آزمایش قرار گیرند .

    کا کسل کننده‌ای که حتی اغلب انجام نمی‌گیرد زیرا عملی و معقول نیست .

    حال با این روش کارخانجات می‌توانند صورت موجودی خود را به ساده‌ترین شیوه ممکن تهیه و ارائه نمایند .

    با بهره‌گیری از موتور جستجوی جدید ، طراحان می‌توانند طرح قطعه مورد نیاز خود را بصورت کلی ترسیم کنند و ظرف مدت چند ثانیه تعداد بیشماری قطعه در قالب صورت موجودی‌های گوناگون در برابر دیدگانش ظاهر خواهد گشت که با نوع مورد درخواست آنها شباهت و حتی مطابقت خواهد داشت در صورتی که یک قلم از نتایج ارائه شده با اندک تفاوتهایی نزدیک به طرح مورد نظر کاربر باشد ، وی می‌تواند اسکلتی از آن قطعه را مشاهده کرده و بر روی صفحه کامپیوتر خود آنرا دستکاری نماید به عنوان مثال ابعادش را کوتاه و بلند کرده و یا منحنی بسازد ، سپس مجدداً‌ پایگاه داده‌های موتور جستجو را مورد کاوش قرار دهد در دنیای امروز نیاز برای سرعت در پروسه تولید محصولات بیش از هر زمان دیگری احساس می‌شود و این موتور جستجو از نوع پیشرفت‌هایی است که می‌تواند در تحقق این هدف، فوق‌العاده موثر واقع شود مضاف براین که کارآیی و بازده را نیز به نحوه قابل توجهی بالا می‌برد .

    البته موتورهای جستجوی رایج در اینترنت هنوز در تلاش برای تسلط پیدا کردن بر تصاویر دو بعدی هستند به عنوان مثال برنامه جستجوی عکس گوگل نتایج نسبتاً خوبی ارائه می‌نماید اما عملاً‌ قادر به گشتن در مجموعه تصاویر خود نیست و بیشتر متن حاشیه‌ای طرح را ملاک کار قرار می‌دهد .

    در هر حال موتورهای جستجوی سه بعدی که به عنوان ابزاری خلاق و قدرتمند ظاهر گشته‌اند می‌روند تا عرصه کار با کامپیوترها را متحول سازند، نرم افزارهای دو سویه طراحی و مدل سازی نیز مجموعه طرحهای موجود برای جستجو را نه تنها در زمینه ‌های صنعتی بلکه در عرصه دنیاهای مجازی آن لاین گسترش داده‌اند .

    محققان بسیاری در این حوزه وارد شده‌اند از آن جمله مهندسین کمپانی بوئینگ هستند که چند سالی است با هدف استفاده مجدد از برخی قطعات یک موتور جستجوی سه بعدی برای خود ابداع کرده‌اند .

    پرفسور « توماس فانخوسر» و همکارانش از دانشگاه پرینستون نیز نوعی موتور جستجوی سه بعدی در اینترنت راه اندازی کرده‌اند که برای افراد این امکان را فراهم می‌آورد تا با استفاده از یک ماوس کامپیوتر طرح کلی یک شئی را ترسیم نموده، توضیحات متنی به آن اضافه کرده و سپس برای مدل‌هایی مشابه آن در پایگاه داده ‌هایی طراحی به جستجو بپردازند .

    نتایج می‌تواند شگفت آور و خیره کننده باشد به گونه‌ای که شما را به حیرت وا دارد .

    به عنوان مثال اگر یک سیب زمینی بزرگ بکشید سیستم با ارائه مجموعه‌ای از اشیاء با ظاهر سیب‌زمینی مانند پاسخ می دهد اما این عین حال چند سماور نیز برایتان نمایش خواهد داد.

    شاید در نظر اول تصور کنید سایت در نتایج خود دچار اشتباه شده اما با چرخاندن طرح سیب‌زمینی‌تان ، متوجه می شوید که موتور جستجو درست حدس زده و طرح شما در صورت عمودی قرار گرفتن ، در قسمت بالا و انتهایی باریک تر و در بخش میانی برجسته است و این بدان معناست که سایت کلیه حدس های احتمالی را در نظر می‌گیرد .

    این توانایی‌های خارق العاده فرآیند جستجوی قدیمی بر مبنای درج کلمات کلیدی را به نوعی ابزار کند و کسل کننده بدل ساخته است .

    البته تردیدی نیست که «‌متن‌» می تواند همچنان دقیق تر از «‌طرح» عمل کند.

    حال پرسش اینجاست که یک برنامه کامپیوتری چگونه به دنبال اشیاء می گردد .

    راز این دستاورد پدیده‌ای به نام « ووکسل» .

    مالکین دوربین ‌های دیجیتال با «پیکسل » آشنایی دارند که عنصر پایه‌ای یک تصویر دیجیتال است .

    هر «پیکسل» ذره کوچکی از رنگ می‌باشد .

    به همین شکل « ووکسل» نیز عنصر اصلی یک شی سه بعدی است که درون کامپیوتر نمایش داده می‌شود.

    هر«ووکسل» که در برگیرنده حجم شی مورد نظر دارد.

    در که توسط کاربران ترسیم گردیده ، به CAD برنامه « رامانی» نیز بطور مثال طرح های «ووکسل» تبدیل می شوند.

    سپس الگوهایی« ووکسل»‌موجود در پایگاه داده ها برای یافتن شباهت های احتمالی با طرح ترسیم شده کاربر مقایسه می شوند.

    به دلیل آنکه «ووکسل‌ها» بیشتر در برگیرنده حجم هستند تا شکل، برنامه مزبور می تواند مثلاً یک فنجان قهوه را به عنوان حجم کار در نظر گرفته و مشخصه گود و توخالی بودن آن را مد نظر قرار دهد بدون توجه به دسته توپری که می تواند داشته باشد .

    مکانیسم جستجوی سه بعدی به تدریج از این هم هوشمند تر خواهد شد .

    این برنامه را می‌توان به گونه ای تجهیز کرد که با درک عمقی کاوش های کاربران ، در نهایت الگوهای مشترک را از یکدیگر تمییز دهد.

    یک کامپیوتر می تواند نهایتاً تشخیص دهد که چند تصویر به ظاهر متفاوت همگی نشان دهنده یک انسان هستند حتی اگر در حالات و ژست های مختلف باشند .

    در آینده نزدیک سیستم جستجوی سه بعدی به احتمال قوی بیشتر برای کاربردهای صنعتی اختصاص خواهد یافت با این وجود « پیترنورویگ»‌مدیر کیفیت جستجوی گوگل ، تکنولوژی جدید را جالب خوانده و خاطر نشان می سازد در صورت آغاز پروسه ، طراحان گوگل با جدیت بیشتری به آن خواهند پرداخت «قرار رامانی» هنوز در حال تنظیم و تکمیل موتور جستجوی سه بعدی خود می باشد و مجوز صادر می گردد .

    وی Imaginestics است برای ابداع وی از سوی موسسه تحقیقاتی که هنوز در مورد پیشرفت حاصله و قابلیت دسترسی به اشیاء از طریق کامپیوتر هیجان شده است ، مقطع کنونی را آغاز عصر اطلاعات توصیف می کند.

    منابع و مآخذ : 1ـ WWW.

    Iranseo.

    Com 2ـ آموزش اینترنت در 10 روز نوشته احمد سعادت 3ـ مقاله نسل فردای موتورهای جستجوگر مجله کامپیوتر 4ـ اینترنت نوشته علی صداقت انتشارات آذرخش 5ـ CD آموزشی اینترنت ساخته شده توسط شرکت رایان گستر

  • مقدمه ………………………………………………………………………………………………… 2

    موتورجستجوگر چگونه کار می‌کند.………………………………………………………… 4

    انواع موتورهای جستجوگر.……………………………………………………………………12

    نسل بعدی موتورهای جستجوگر …..……………………………………………………… 19

    منابع و مأخذ……………………………………………………………………………………… 25

رشد اینترنت شگفت آور شده است. با توجه به تحقیق میدانی در سال 1996 این رشد تصاعدی همچنان ادامه دارد. و تخمین زده شده که شبکه از نظر اندازه و حجم هر 12 تا 15 ماه دو برابر می‌شود. بطور تقریبی 000/100 وب‌گاه در اگوست 1995 وجود داشته و این تعداد در اگوست 1996 به 041/536 رسیده است. از آنجائی که هر پایگاه می‌تواند بسیاری از صفحات وب را در خود داشته باشد این باعث می‌شود که تعداد بیشتری ...

همانطور که میدانیم شبکه جهانی اینترنت روز به روز در حال گسترش است و طراحان صفحات وب از یک طرف و استفاده کننده گان از طرف دیگر با این شبکه ارتباط برقرار می کند .در این میان افزایش روز افزون صفحات وب مشکل انتخاب صفحات مورد نیاز را برای کاربران ایجاد ساخته است . پس از ان موتورهای جستجو به کمک کاربران شتافته و ان ها را در بدست اوردن اطلاعات مورد نیاز یاری می دهند . این موتورهای ...

رشد اینترنت شگفت‌آور شده است. با توجه به تحقیق میدانی در سال 1996 این رشد تصاعدی همچنان ادامه دارد. و تخمین زده شده که شبکه از نظر اندازه و حجم هر 12 تا 15 ماه دوبرابر می‌شود. بطور تقریبی 000/100 وب‌گاه در اگوست 1995 وجود داشته و این تعداد در اگوست 1996 به 041/536 رسیده است. از آنجائی که هر پایگاه می‌تواند بسیاری از صفحات وب را در خود داشته باشد این باعث می‌شود که تعداد بیشتری ...

موتورهای جستجو چگونه کار می کنند؟ وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارایه می شود، کاربران در واقع نتیجه کار بخش های متفاوت موتور جستجوگر را می بینند. موتور جستجوگر قبلا پایگاه داده اش را آماده کرده است و این گونه نیست که درست در همان لحظه جستجو، تمام وب را بگردد. بسیاری از خود می پرسند که چگونه ممکن است گوگل در کمتر از یک ثانیه تمام سایت های وب را بگردد و ...

تا این اواخر و تا قبل از سال 1997 ، Alta Visa عملکرد وسعیی در ارائه صفحات اینترنتی داشته است . ارائه این صفحات مدت طولانی نیست . صفحات ثبت نام (Register) شده به نظر می رسد که دارای امتیاز بالایی است یا برای ثبت نام در دومین مرحله امتیازی کسب می شود اما مشکلی که در Alta Visa وجود دارد این است که لیستهای بازگشتی به Alta Visa هیچ رابطه ای با موتورهای جستجوی دیگر ندارد و این کار ...

موضوعی که در این مجموعه مورد بررسی قرار گرفته است ترتیب اولویت بندی موتورهای جستجو در اینترنت می باشد موارد Search شده در Search engine به ترتیب های خاصی از بالا به پایین قرار می گیرند وهر موتور جستجو برای این اولویت بندی الگوریتم خاصی را درنظر می گیرد که این یک راز و رمز تجاری برای طراحان آن می باشد . ما در این مجموعه در ابتدا به توضیح مختصری درباره تاریخچه web پرداخته و پس از ...

این مقاله تکامل وب را در رابطه با وب و فناوری‌های بازیابی اطلاعات بررسی می‌کند. در این بررسی بین عناصر مختلف وب در زمینهء نمایه‌سازی و صفحات جستجوی وب وجه تمایز وجود دارد. ده ابزار اصلی و مهم وب براساس معیارهای انتخاب و تعداد اتصال‌ها با یکدیگر مقایسه و ارزیابی شده‌اند. ابزارهای جستجو مانند راهنماها و موتورهای جستجوگر نیز مورد بررسی و مقایسه قرار گرفته‌اند. کلمه اینترنت مخفف ...

گوگل؛ جستجوگر دوست ‌داشتنی! براساس آخرین آمار منتشر شده، «گوگل» با در اختیار داشتن 54 درصد از سهم بازار، محبوب‌ترین موتور جستجو است و بعد از آن یاهو با اختلاف فراوان و با 23 درصد از سهم بازار در رده‌ی دوم قرار دارد و MSN با 13 درصد سوم می‌باشد. گوگل هر روز میلیون‌ها بار برای جستجو استفاده می‌شود؛ و جالب‌تر از همه این که فعل «گوگل» وارد زبان انگلیسی شده و حتی ...

اینترنت تجارت جهانی خود را آغاز نموده است و در همین زمان ما را به ایجاد فضاهای اطلاعاتی غنی برای زندگی روزمره قادر می سازد. تا زمانیکه اینترنت تحقیق و تجارت جهانی را ممکن می سازد، زندگی ذاتا به صورت محلی ادامه می یابد. در حالی که زندگی در نتیجه زمینه های فرهنگی متفاوت، نا متشابه است. کوشش های شغلی برای غلبه بر این تفاوتها به توافق نامه های استانداردی احتیاج دارد ولی ما برای ...

مفهوم شهرهای دیجیتالی ساختن صحنه ای است که در آن مردم در جوامع ناحیه ای می توانند به تبادل و مشارکت در دانش، تجربه و علایق متقابل بپردازند . شهرهای دیجیتالی اطلاعات شهری (چه اطلاعات قابل دسترسی و چه اطلاعات بلا درنگ) را در هم ادغام کرده و فضاهایی عمومی در اینترنت برای مردمی که در این شهرها زندگی می کنند یا از آنها بازدید می کنند، ایجاد می نمایند. شهرهای دیجیتالی در حال گسترش در ...

ثبت سفارش
تعداد
عنوان محصول