بر مبنای حقایق، نه لینک‌ها
گوگل رتبه‌بندی صفحات وب را بهبود می‌دهد
امروزه رتبه‌بندی صفحات وب بر مبنای تعداد لینک‌ها و تعداد بازدیدهای انجام شده قرار دارد، اما کاربران حداقل یک‌بار تجربه مشاهده صفحه‌ای که برعکس تصور آن‌ها بوده است را داشته‌اند. گوگل در تلاش است تا جستجوها روی بستر اینترنت بر مبنای حقایق باشد.

1606683296_1_0.gif

جستجوهای اینترنتی ممکن است بر اساس الگوریتم‌های سخت‌گیرانه‌ای انجام شود که معمولا هیچ‌گونه تضمینی درباره کیفیت صفحه پیشنهاد شده ارائه نمی‌کنند. کیفیت منابع وب به طور سنتی با استفاده از سیگنال‌ها یا همان پیوندهای خارجی که بر اساس ساختار ابرمتنی گراف‌ها به دست می‌آید، قرار دارند.

اما اکنون تیمی از محققان در گوگل در حال طراحی روشی برای مرتب‌سازی نتایج بر مبنای محتوای واقعی صفحات هستند. در رویکرد جدید مرتب‌سازی نتایج بر مبنای سیگنال‌های درونی است که صحت اطلاعات حقایقی به دست آمد از منابع را تایید می‌کنند. در حالی که امروزه گوگل از الگوریتم‌های کاملاً پچیده درباره ارائه جستجوها استفاده می‌کند، هنوز هم معیار اصلی کیفیت یک صفحه وب بر تعداد لینک‌های وارد شده به آن قرار دارد. پیوندهای بیشتر به یک صفحه نشان دهنده بهتر بودن یک صفحه بوده و آن‌را در صدر نتایج به شما نشان می‌دهد.

این رویکرد یک روش سودمند و به ظاهر ساده به شمار می‌رود. اما سوال اینجا است که اگر تعداد زیادی از مردم به یک صفحه که حاوی مطالب نادرست است پیوند دهند آیا این صفحه می‌تواند در صدر نتایج قرار داده شود، حتی اگر حاوی مطالب درست و مناسبی نباشد؟ یک تیم از محققان گوگل روشی جدید را برای امتیاز‌دهی به صفحات وب پیدا کرده‌اند که به‌نام امتیازدهی Knowledge-Based Trust (اعتماد مبتنی بر دانش) نامیده می‌شود. هرچند این سیستم هنوز به صورت زنده مورد استفاده قرار نگرفته است و تا مدت زمان دیگری نیز به طور عملی مورد استفاده قرار نخواهد گرفت، اما یک روش جالب به شمار می‌رود. بر اساس گزارش‌ها، این سیستم که می‌توان آن را یک سیستم معنایی و ادراکی تعبیر کرد بر مبنای شمارش تعداد حقایق نادرستی که درون یک صفحه قرار دارند عمل می‌کند. به عبارت دیگر اگر یک منبع دارای چند حقیقت نادرست باشد به عنوان یک منبع غیرقابل اعتماد در نظر گرفته می‌شود. حقایق به طور خودکار از هر منبعی با استفاده از روش‌های استخراج اطلاعات که برای ساخت بانک‌های اطلاعاتی دانش‌محور از آن‌ها استفاده می‌شود به دست می‌آید.

اما برای این‌که این سیستم به درستی کار کند؛ محققان از یک روش تشخیص خطا که بر مبنای استنتاج مشترک در یک مدل احتمالاتی چند لایه برای شناسایی و استخراج اشتباهات واقعی در هر منبع وب است استفاده می‌کنند. این فن‌آوری با نگاه کردن به محتوا و مقایسه آن با دانش جهش یافته گوگل Google's Knowledge Vault کار می‌کند. منبع این حقایق که به طور گسترده و آنلاین به ‌دست می‌آید، اینترنت است که توسط محققان به‌عنوان یک فیلتر برای حقایق مورد استفاده قرار می‌گیرد. اگر صفحات وب شامل اطلاعاتی در تضاد با این حقایق باشند، آن‌ها در رتبه‌های پایین نشان داده می‌شوند. البته در این‌جا لازم به توضیح است که این اولین تلاشی نیست که الگوریتم‌هایی سعی در قضات کردن بر می‌دارند، Emergent پروژه‌ "Tow Center for Digital Journalism " که توسط دانشگاه کلمبیا ساخته شد، به بررسی شایعاتی که روی سایت‌های نامعتبر قرار داشتند و ارجاع متقابل به منابع معتبر عمل می‌کردند، نمونه‌ای از این موارد به شمار می‌رود.  نمونه دیگری از این تلاش‌ها به افزونه ویژه‌ای که توسط مت استام پک به‌نام LazyTruth برای مرورگرها طراحی شده است می‌توان اشاره کرد که سعی در شناسایی ایمیل‌های جعلی می‌کند. اما به کارگیری این مدل از فن‌آوری در جستجوها یک مفهوم جدید و جالب توجه است. شاید بزرگ‌ترین علامت سوالی که در این زمینه وجود دارد به دقت الگوریتم مورد استفاده توسط گوگل باز می‌گردد که چگونه می‌تواند به روشنی درست را از غلط تشخیص داده و چگونه نتایج مبتنی بر حقایق به دست آمده از گوگل به شما کمک خواهند کرد.

کاملا مشخص است که دنیای نرم‌افزار به طرز عجیب و باورنکردنی در حال تکامل و پیشرفت است. اگر به چند دهه قبل بازگردیم، روزگاری ‌که هنوز مفهومی به نام مهندسی نرم‌افزار وجود نداشت و مدل‌های نرم‌افزاری عمدتا با الگوبرداری از صنایع مختلف ارائه می‌شدند، امروزه اوضاع کاملا متفاوت شده است. اکنون این هوش‌مصنوعی است که حرف اول را در دنیای نرم‌افزار می‌زند. اکثر قریب به اتفاق نرم‌افزارهای مطرح و روز دنیا بر اساس الگوریتم‌های جدید و تکامل یافته هوش‌مصنوعی طراحی می‌شوند. هرچند هوش‌مصنوعی هنوز در خصوص حل بعضی از مسائل که به نام مسائل رام نشدنی معروف هستند به تکامل نرسیده است، اما نمونه‌برداری از الگوریتم‌های ژنتیک پیشرفته به طور جدی توسط دانشمندان دنبال می‌شود. اگر نگاهی کوتاه به تاریخچه به‌کارگیری این الگوریتم‌ها در شرکتی همچون گوگل بیاندازیم، متوجه می‌شویم که گوگل با پروژه‌هایی همچون  نقشه‌دانش، ارائه رویکردهای جدید برای جایگزینی فرآیند تصدیق هویت Captcha که در بیشتر موارد بلای جان کاربران است، تبدیل خودکار فایل‌های فلش، پروژه‌های تحقیقاتی و همکاری با شرکت‌های سخت‌افزاری بزرگ همچون D-wave (شرکتی فعال در زمینه محاسبات کوانتومی) در زمینه ساخت کامپیوترهای کوانتومی و حمایت از پروژه اینترنت اشیا گام‌های بلندی در این زمینه برداشته است.

ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را می‌توانید از کتابخانه‌های عمومی سراسر کشور و نیز از دکه‌های روزنامه‌فروشی تهیه نمائید.

ثبت اشتراک نسخه کاغذی ماهنامه شبکه     
ثبت اشتراک نسخه آنلاین

 

کتاب الکترونیک +Network راهنمای شبکه‌ها

  • برای دانلود تنها کتاب کامل ترجمه فارسی +Network  اینجا  کلیک کنید.

کتاب الکترونیک دوره مقدماتی آموزش پایتون

  • اگر قصد یادگیری برنامه‌نویسی را دارید ولی هیچ پیش‌زمینه‌ای ندارید اینجا کلیک کنید.

ایسوس

نظر شما چیست؟