طبقه بندی:
پورتال اینترنت و فناوری اطلاعات
چچ
دادههای جمع آوری شده تقریبا همیشه شامل گزارشهای "ترافیک وب" هستند. این گزارشها ممکن است حاوی میزان پاسخ ایمیل، دادههای کمپینهای میل مستقیم، اطلاعات فروش، دادههای کارکرد کاربران مثلا نمودار "هیت کلیک ها و سایر اندازه گیرهای مرسوم باشند.
- دو رویکرد تکنولوژیک
- دو رویکرد تکنولوژیک اصلی برای جمع آوری داده های آنالیز وب وجود دارد: اولین روش "آنالیز لاگ فایل" (logfile analysis) است. در این روش، لاگ فایلها راکه وب سرورها همه عملیاتشان را در آنها ثبت می کنند می خوانند. روش دوم "تگدادن به صفحات" (page tagging) است که از "جاوا اسکریپت" روی هر صفحه استفاده می کنند تا هنگامی که یک مرورگر وب بر روی یک صفحه عمل می کند، یک سرور ثالث را خبردار کند.
- آنالیز لاگ فایل
- وب سرورها همیشه همه عملیات شان را در یک لاگفایل ثبت میکنند. به زودی مشخص شد که این لاگفایلها که قابل خواندهشدن بهوسیله یک برنامه هستند، میتوانند داده هایی درباره محبوبیت یک وبسایت فراهم کنند. به این ترتیب نرمافزارهای آنالیز لاگ فایل ظهور کردند. در اوائل دهه 1990 آمار وب سایت عمدتا متشکل از شمارش تعداد تقاضاهای ارائه شده مراجعین به وب سرور بود. این رویکرد منطقی می نمود چرا که هر وب سایت اغلب شامل یک فابل منفرد HTML بود. اما با وارد شدن گرافیک به HTML [گرافیک وب] و وب سایتهایی که چندین فایل HTML را در بر میگرفتند، این شمارش دیگر چندان مفید نبود. اولین لاگ آنالایزر واقعی تجاری در سال 1994 بوسیله IPRO ساخته شد. دو واحد اندازه گیری هم در میانه دهه 1990 برای تعیین دقیقتر فعالیت انسانی روی وب سرورها ارائه شدند. این دو واحد "صفحه دیدهشده "(page view) و "بازدیدکننده صفحه (page visit or session) بودند. "صفحه دیدهشده" به معنای تقاضای یک وب سرور برای یک صفحه، در مقابل یک گرافیک، است، اما "بازدیدکننده صفحه" به معنای یک رشته از تقاضاها از یک مرجع با هویت منحصربهفرد است که پس از مدت معینی از عدم فعالیت، معمولا 30 دقیقه، منقضی شده است. صفحات دیدهشده" و "بازدیدکنندگان صفحه" هنوز معیارهای اندازهگیری هستند که به طور رایج به نمایش درمیآیند، اما اکنون آنهارا هم ابزارهایی غیردقیق محسوب میکنند. ظهور "اسپایدرها و روباتهای" موتورهای جستجو [چطور موتورهای جستجو کار میکنند؟] در اواخر دهه 1990 به همراه "وب پروکسیها" و "آدرسهای IP به طور فعال اختصاصیابنده" برای شرکتهای بزرگ و ISPها، شناسایی بازدیدکنندگان منحصر به فرد انسانی از یک وبسایت را مشکلتر کرد. استفاده گسترده از "کشهای وب" نیز مانعی بر سر راه "تحلیل لاگفایل" پدید آورد. اگر شخصی یک صفحه را دوباره ببیند، تقاضای دوم از کش مرورگر (browser cache) پاسخ داده میشود، و تقاضایی در وب سرور دریافت نخواهد شد. این امر به معنای آن است که مسیر کلیک شخص در سایت از دست میرود. با پیکربندی وب سرور میتوان بر "کشکردن" (caching) غلبه کرد، اما این کار ممکن است کارکرد بازدیدکننده از وبسایت را دچار اشکال کند.
- تگ دادن به صفحه
- نگرانیها در مورد دقت تحلیل لاگفایل با وجود کششدن، و گرایش به انجام آنالیز وب به عنوان یک سرویس سفارشی دومین روش جمع آوری دادهها را پدید آورد: تگدادن به صفحه یا “Web bugs” در میانه دهه 1990 به طور شایع شمارندههای وب را در وبسایتها مشاهده میکردیم تصاویری درون یک صفحه وب که تعداد دفعاتی را به نمایش میگذاشتند که آن تصویر درخواست میشد و به این ترتیب تخمینی از شمار بازدیدها از آن صفحه را به دست میداد. در آخر دهه 1990 این تصویر قابل مشاهده به یک تصویر کوچک غیرقابل مشاهده تحول یافت که با استفاده از جاوا اسکریپت، به همراه درخواست تصویر؛ اطلاعات معینی درباره صفحه و بازدیدکننده را هم انتقال میداد. بعد یک شرکت آنالیزکننده وب میتوانست این اطلاعات را از راه دور پردازش و آماری تفصیلی را تولید کند. سرویسهای آنالیز وب همچنین فرآیند تخصیصدادن "کوکی" (Cookie) به کاربران را هم انجام میدهند و به این ترتیب میتواند آنها را حین بازدید و بازدیدهای بعدی به طور انحصاری شناسایی کنند. با رواج استفاده از سلوشن"آژاکس"، شیوه جایگزینی برای کاربرد یک تصویر غیرقابل مشاهده ایجاد شده است: استفاده از فراخوان سرور از سوی صفحه اجراشده. در این شیوه هنگامی که صفحه روی مرورگر وب اجرا میشود، یک قطعه کد آژاکس، سرور را احضار میکند و اطلاعات مربوط به مرجع را به آن منتقل میکند؛ بعد این اطلاعات را یک شرکت آنالیز وب جمعآوری میکند.
اجازه انتشار:
قید نشده
نوع:
ترجمه
آدرس وب سایت:
www.aftab.ir