Google làm việc thế nào: thu thập dữ liệu, lập chỉ mục & xếp hạng?

Chương 2: Google làm việc thế nào: thu thập dữ liệu, lập chỉ mục & xếp hạng?

Như đã đề cập trong Chương 1, các công cụ tìm kiếm như Google, Bing là những cỗ máy trả lời. Chúng tồn tại để khám phá, hiểu và sắp xếp nội dung của internet để cung cấp kết quả phù hợp nhất cho các câu hỏi mà người dùng đưa ra.

Để được hiển thị trong kết quả tìm kiếm và người dùng truy cập, trước tiên, nội dung của bạn cần hiển thị cho các công cụ tìm kiếm có thể hiểu. Đây được cho là phần quan trọng nhất của câu đố SEO: Nếu trang web của bạn không thể được tìm thấy, sẽ không có cách nào bạn sẽ xuất hiện trong SERPs (Trang kết quả của Công cụ tìm kiếm).

Các công cụ tìm kiếm làm việc thế nào?

Xây dựng một công cụ tìm kiếm là một công việc vô cùng phức tạp mà không nhiều công ty trên thế giới có thể làm. Tuy nhiên có thể tóm gọn cách thức hoạt động của chúng qua 3 bước sau:

  1. Thu thập dữ liệu: Quét toàn bộ các trang web trên Internet, xem đoạn mã/nội dung cho từng URL chúng tìm thấy.
  2. Lập chỉ mục: Lưu trữ và sắp xếp nội dung tìm thấy trong quá trình thu thập thông tin. Khi một trang nằm trong chỉ mục, nó có thể được hiển thị như là kết quả của các truy vấn có liên quan.
  3. Xếp hạng: Cung cấp các nội dung mà công cụ tìm kiếm coi là có thể trả lời tốt nhất cho truy vấn của người tìm kiếm, điều đó có nghĩa là các kết quả được sắp xếp theo thứ tự phù hợp nhất cho tới ít liên quan nhất.

Công cụ tìm kiếm thu thập những gì?

Thu thập thông tin là một quá trình khám phá trong đó các công cụ tìm kiếm đưa ra một nhóm các con bot (được gọi là bọ thu thập thông tin hay trình thu thập dữ liệu) để lùng sục trên internet các nội dung mới hoặc nội dung đã có sẵn trong chỉ mục và mới được cập nhật. Những nội dung này có thể khác nhau - có thể là các trang web, hình ảnh, video, hay các file PDF, v.v. - nhưng bất kể nội dung có định dạng gì, chúng đều được phát hiện bởi các liên kết.

Crawler bot, hay còn gọi là bọ tìm kiếm, bò từ trang này sang trang khác để tìm các nội dung mới và cập nhật

Các con bot của Google bắt đầu bằng cách tìm nạp vài trang trên một website và sau đó theo dấu các liên kết trên các trang đó để tìm các địa chỉ URL mới. Bằng cách truy dọc theo những đường dẫn liên kết này, chúng có thể tìm thấy nội dung mới và thêm nó vào chỉ mục của Google Search có tên là Caffeine - một cơ sở dữ liệu khổng lồ về các URL được phát hiện - để rồi sau đó sẽ được hiển thị cho người tìm kiếm nếu thông tin trên trang web đó được Google đánh giá là câu trả lời phù hợp.

Chỉ mục của công cụ tìm kiếm là gì?

Các công cụ tìm kiếm xử lý và lưu trữ thông tin chúng tìm thấy trong một chỉ mục (index), một cơ sở dữ liệu khổng lồ về tất cả nội dung mà chúng đã phát hiện ra và thấy đủ tốt để phục vụ cho người tìm kiếm.

Công cụ tìm kiếm xếp hạng nội dung như thế nào?

Khi ai đó thực hiện việc tìm kiếm, các công cụ tìm kiếm sẽ quét chỉ mục của chúng để tìm những nội dung có mức độ liên quan cao đến câu truy vấn và sau đó xếp hàng các nội dung đó với hy vọng có thể trả lời chính xác câu hỏi nhận được. Thứ tự kết quả tìm kiếm theo mức độ liên quan được gọi là xếp hạng (ranking). Về cơ bản, bạn có thể giả định rằng khi một trang web được xếp hạng càng cao, các công cụ tìm kiếm càng tin rằng trang web đó phù hợp hơn với truy vấn của người tìm kiếm.

Mặt khác, chúng ta hoàn toàn có thể chặn trình thu thập nội dung từ các công cụ tìm kiếm khám phá một phần hoặc tất cả trang web của bạn; hoặc đưa ra hướng dẫn để các công cụ tìm kiếm tránh việc lưu trữ các trang nhất định của bạn trong chỉ mục của chúng. Mặc dù có thể bạn có lý do riêng để làm điều này, nhưng nếu bạn muốn người tìm kiếm tìm thấy nội dung của mình, trước tiên bạn phải đảm bảo rằng nó có thể truy cập được với các trình thu thập thông tin và có thể được lập chỉ mục. Nếu không, nó gần như vô hình.

Trong SEO, không phải tất cả các công cụ tìm kiếm đều như nhau

Trong SEO, không phải tất cả các công cụ tìm kiếm đều như nhau

Nhiều người mới bắt đầu tự hỏi về tầm quan trọng của từng công cụ tìm kiếm cụ thể (như GoogleBing, hay Yandex...). Hầu hết mọi người đều biết rằng cần tập trung tối ưu cho Google. Vậy còn BingYahoo và những công cụ tìm kiếm khác thì sao?

Sự thật là mặc dù có tới hơn 30 công cụ tìm kiếm web lớn, cộng đồng SEO thực sự chỉ chú ý đến Google. Tại sao? Đơn giản bởi Google là nơi mà phần lớn mọi người tìm kiếm trên web. Google phổ biến đến mức trong từ điển tiếng Anh, Google cũng có nghĩa là tìm kiếm. Nếu bao gồm cả Google ImagesGoogle Maps và YouTube, thì có tới hơn 90% tìm kiếm trên web được thực hiện trên Google - tức gấp gần 20 lần Bing và Yahoo kết hợp lại

Công cụ tìm kiếm có thể tìm thấy website của bạn không?

Như chúng ta vừa tìm hiểu, đảm bảo trang web của bạn được thu thập thông tin và lập chỉ mục là điều kiện tiên quyết để hiển thị trong SERPs. Nếu đã có một trang web, bạn có thể nên bắt đầu bằng cách xem có bao nhiêu trang trên website của bạn đã được lập chỉ mục. Điều này sẽ mang lại một số hiểu biết về việc Google có đang thu thập dữ liệu và tìm tất cả các trang bạn muốn hay không.

Một cách để kiểm tra các trang được lập chỉ mục của bạn là gõ "site:tenmiencuaban.com", vào khung tìm kiếm trên Google. Kết quả trả về sẽ là toàn bộ các trang trên website của bạn đã được Google lập chỉ mục.

Kiểm tra xem có bao nhiêu trang trên website của bạn đã được Google lập chỉ mục toàn bộ các trang trên website của bạn đã được Google lập chỉ mục

Số lượng kết quả mà Google hiển thị (khoảng XXX kết quả) tuy không hoàn toàn chính xác, nhưng nó cho bạn ý tưởng về các trang được lập chỉ mục trên website của bạn và cách chúng hiện đang hiển thị trong kết quả tìm kiếm.

Để có kết quả chính xác hơn, hãy theo dõi và sử dụng báo cáo của Google Search Console. Bạn có thể đăng ký tài khoản Google Search Console miễn phí miễn là bạn đang sở hữu một địa chỉ Gmail. Với công cụ này, bạn có thể gửi sơ đồ trang web cho Google và theo dõi số lượng trang đã thực sự được thêm vào chỉ mục của Google, kèm theo nhiều thông tin hữu ích khác.

Sitemap

Sitemap

Sơ đồ trang web (sitemap) là một file rất quan trọng của một trang web, nó sẽ giúp Google có thể đánh chỉ mục cho toàn bộ website của bạn một cách nhanh & chính xác hơn. Do đó nếu bạn cần thuê một đơn vị thiết kế website, hãy đảm bảo rằng dịch vụ đó đủ uy tín để xây dựng cho bạn sơ đồ này.

Nếu bạn không tìm thấy website của mình trong kết quả tìm kiếm, hãy thử kiểm tra một vài trường hợp sau:

  • Trang web của bạn hoàn toàn mới và Google chưa thu thập thông tin.
  • Trang web của bạn không được liên kết đến từ bất kỳ trang web bên ngoài nào.
  • Điều hướng trên trang web của bạn làm cho các con bọ tìm kiếm khó thu thập thông tin một cách hiệu quả.
  • Trang web của bạn chứa một số mã cơ bản được gọi là chỉ thị ngăn chặn bọ tìm kiếm thu thập thông tin.
  • Trang web của bạn đã bị Google phạt vì các chiến thuật spam.

Hãy cho công cụ tìm kiếm biết cách thủ thập dữ liệu trang web của bạn

Hãy cho công cụ tìm kiếm biết cách thủ thập dữ liệu trang web của bạn

Nếu bạn đã sử dụng Google Search Console hoặc sử dụng toán cú pháp kiếm nâng cao site:tenmiencuaban.com  và thấy rằng một số trang quan trọng của bạn bị thiếu trong chỉ mục và/hoặc một số trang không quan trọng của bạn đã bị lập chỉ mục nhầm. Có một số cách tối ưu hóa bạn có thể triển khai để Googlebot hiểu rõ hơn cách bạn muốn thu thập nội dung trang web của mình. Việc hướng dẫn các công cụ tìm kiếm cách thu thập dữ liệu website của bạn có thể giúp bạn kiểm soát tốt hơn những gì nằm trong chỉ mục của các công cụ này.

Hầu hết mọi người luôn nghĩ về việc đảm bảo Google có thể tìm thấy các trang quan trọng của họ, nhưng lại dễ dàng quên rằng có nhiều trang bạn không muốn Google có thể tìm thấy. Chúng có thể bao gồm những thứ như các trang không có hoặc có rất ít nội dung, các trang có URL trùng lặp (chẳng hạn như tham số sắp xếp và bộ lọc trên trang thương mại điện tử), các trang chứa mã khuyến mại, hay các trang đang được xây dựng thử nghiệm, v.v.

Để hướng Googlebot ra khỏi các trang nhất định trên trang web của bạn, hãy sử dụng robots.txt.

File robots.txt

File robots.txt được đặt trong thư mục gốc của các trang web (ví dụ: tenmiencuaban.com/robots.txt) và đề xuất những trang nào trên website mà công cụ tìm kiếm không nên thu thập dữ liệu, cũng như tốc độ thu thập dữ liệu , thông qua các chỉ thị cụ thể.

Cách Google xử lý file robots.txt

  • Nếu Googlebot không thể tìm thấy file robots.txt của một trang web, nó sẽ tiến hành thu thập dữ liệu của toàn trang web.
  • Nếu Googlebot tìm thấy file robots.txt của một trang web, nó thường sẽ tuân theo các chỉ thị trong file và tiến hành thu thập dữ liệu trang web theo các chỉ thị này.
  • Nếu Googlebot tìm thấy file robots.txt nhưng gặp lỗi trong quá trình xử lý nội dung của file (như cấu trúc file không hợp lệ, hay máy chủ website bị lỗi), nó sẽ không thu thập dữ liệu trang web.

Tối ưu hóa Crawl Budget

Tối ưu hóa Crawl Budget

Crawl Budget là số URL trung bình Googlebot sẽ thu thập dữ liệu trên trang web của bạn trước khi rời khỏi. Vì vậy, tối ưu hóa Crawl Budget đảm bảo rằng Googlebot sẽ không lãng phí thời gian để ngó qua các trang không quan trọng và bỏ qua các trang quan trọng của bạn. Crawl Budget vô cùng quan trọng trên các trang web lớn với hàng chục nghìn URL. Nhưng kể cả trang web của bạn không lớn đến vậy, thì cũng không bao giờ là một ý tưởng tồi để chặn các trình thu thập dữ liệu truy cập vào nội dung mà bạn không muốn hiện diện trên SERP.

Không phải tất cả các con bọ tìm kiếm đều tuân thủ các chỉ thị trong file robots.txt. Những người có ý định xấu xây dựng các con bot không tuân theo giao thức này (ví dụ như những cỗ máy quét địa chỉ E-Mail trên website nhằm mục đích SPAM). Trên thực tế, một số con bot xấu còn sử dụng file robots.txt để xác định những vị trí chứa nội dung riêng tư của bạn. Mặc dù có vẻ hợp lý khi chặn trình thu thập thông tin truy cập các trang riêng tư như trang đăng nhập và quản trị để chúng không hiển thị trong chỉ mục, nhưng việc đặt vị trí của các URL đó trong robots.txt cũng có nghĩa là những người có ý định xấu có thể dễ dàng tìm thấy chúng hơn. Cho nên chiến thuật tốt hơn là thiết lập noindex các trang này và giấu chúng phía sau một trang đăng nhập thay vì đặt chúng vào tệp robots.txt của bạn.

Định nghĩa các tham số URL

Một số trang web (phổ biến nhất là các trang thương mại điện tử) cung cấp cùng một nội dung trên nhiều URL khác nhau bằng cách gắn thêm các tham số nhất định vào URL. Nếu bạn đã từng mua sắm trực tuyến, bạn chắc cũng đã từng thông qua các bộ lọc của website đó để nhanh chóng tìm được sản phẩm mình cần. Ví dụ: bạn có thể tìm "laptop" trên FPT Shop, sau đó sử dụng các bộ lọc để tìm những chiếc laptop phù hợp theo cấu hình, hay hãng sản xuất... Mỗi lần bạn tinh chỉnh như vậy, URL sẽ thay đổi một chút, ví dụ như này:

Truy cập: https://fptshop.com.vn/may-tinh-xach-tay/

Lọc theo hãng sản xuất ASUS, URL trở thành https://fptshop.com.vn/may-tinh-xach-tay/asus

Tiếp tục lọc theo mức giá, URL trở thành https://fptshop.com.vn/may-tinh-xach-tay/asus?muc-gia=tu-15-20-trieu

Tiếp tục lọc theo CPU, URL trở thành https://fptshop.com.vn/may-tinh-xach-tay/asus?muc-gia=tu-15-20-trieu&cpu=intel-core-i5

Vậy làm cách nào Google biết phiên bản URL nào sẽ phục vụ cho người tìm kiếm? Thực ra Google có thể thực hiện công việc khá tốt khi có thể tự tìm ra URL đại diện. Nhưng đó là theo cách của Google và chưa chắc đã đúng theo ý bạn. Trong trường hợp này, bạn có thể sử dụng tính năng Thông số URL trong Google Search Console để cho Google biết chính xác cách bạn muốn họ xử lý các trang của mình. Nếu bạn sử dụng tính năng này để nói với Googlebot rằng không thu thập dữ liệu từ các URL chứa tham số ____, thì bạn sẽ yêu cầu ẩn những nội dung này khỏi Googlebot. Đó là những gì bạn muốn nếu các tham số đó đang tạo ra các trang trùng lặp.

Bọ tìm kiếm có thể tìm thấy mọi nội dung quan trọng của bạn?

Bây giờ bạn đã biết một số chiến thuật để đảm bảo các trình thu thập công cụ tìm kiếm không động chạm tới những nội dung không quan trọng của bạn. Tiếp theo, hãy tìm hiểu về các tối ưu hóa có thể nhằm giúp Googlebot tìm thấy các trang quan trọng khác.

Đôi khi một công cụ tìm kiếm sẽ có thể tìm thấy mọi ngóc ngách của một trang web bằng cách thu thập thông tin, nhưng vì lý do này hay lý do khác mà nó bỏ qua một vài trang khác. Điều quan trọng là đảm bảo rằng các công cụ tìm kiếm có thể tìm thấy tất cả nội dung bạn muốn lập chỉ mục chứ không phải chỉ mỗi trang chủ.

Nội dung của bạn chỉ hiển thị với người dùng đã đăng nhập?

Nếu bạn yêu cầu người dùng đăng nhập, điền vào biểu mẫu hoặc trả lời khảo sát trước khi truy cập một số nội dung nhất định, các công cụ tìm kiếm sẽ không thể thấy các trang được bảo vệ đó. Một con bọ thu thập thông tin chắc chắn sẽ không thể đăng nhập.

Bạn có đang dựa vào các form tìm kiếm trên website?

Robot không thể sử dụng các form tìm kiếm. Một số người thậm chí tin rằng nếu họ đặt hộp tìm kiếm trên trang web của họ, công cụ tìm kiếm sẽ có thể tìm thấy mọi thứ mà khách truy cập của họ tìm kiếm. Thực tế là điều này sẽ không xảy ra.

Văn bản là hình ảnh?

Không nên sử dụng các file media (hình ảnh, video, ảnh động GIF, v.v.) để hiển thị văn bản mà bạn muốn được lập chỉ mục. Mặc dù các công cụ tìm kiếm đang trở nên thông minh hơn trong việc nhận dạng hình ảnh, nhưng không có gì đảm bảo chúng sẽ có thể đọc và hiểu nó.

Bọ tìm kiếm có thể theo dấu liên kết?

Giống như cách bọ tìm kiếm khám phá trang ra website của bạn thông qua liên kết từ các trang web khác, nó cần một đường dẫn liên kết trên trang web của riêng bạn để hướng dẫn nó từ URL này sang URL khác. Nếu bạn có một trang mà bạn muốn các công cụ tìm kiếm tìm thấy nhưng nó lại không được liên kết từ bất kỳ trang nào khác, thì bọ tìm kiếm sẽ không thể thấy nó. Nhiều trang web mắc sai lầm nghiêm trọng trong việc cấu trúc điều hướng của họ theo những cách không thể tiếp cận với các công cụ tìm kiếm, cản trở khả năng của họ để được liệt kê trong kết quả tìm kiếm.

Các lỗi phổ biến khiến bọ tìm kiếm không thể thu thập trang web của bạn:

  • Các liên kết của giao diện mobile khác với các liên kết của giao diện desktop.
  • Bất kỳ liên kết nào không được đặt trong các thẻ HTML, như sử dụng Javascript để điều hướng v.v... Google hiện nay đã thông minh hơn và có thể thu thập dữ liệu trong Javascript tốt hơn nhưng vẫn chưa hoàn hảo. Do đó cách chắc chắn để đảm bảo mọi trang đều được bot tìm thấy, hiểu, và lập chỉ mục là đưa nó vào trong các liên kết HTML.
  • Hiển thị nội dung khác nhau với mỗi khách truy cập khác nhau sẽ bị trình thu thập thông tin coi là cố găng đang che giấu điều gì đó.
  • Quên đặt nó trong một liên kết. Hãy nhớ rằng, các liên kết chính là cách hướng dẫn trình thu thập thông tin tìm ra các trang trên website của bạn.

Đó là lý do tại sao website của bạn cần có điều hướng & cấu trúc phân cấp rõ ràng, đầy đủ.

Kiến trúc thông tin minh bạch

Kiến trúc thông tin là thực hiện việc tổ chức và dán nhãn nội dung trên một trang web để cải thiện hiệu quả và khả năng tìm kiếm cho người dùng. Kiến trúc thông tin luôn cân trực quan hết sức có thể, nghĩa là người dùng truy cập website của bạn sẽ không cần phải mất nhiều thời gian suy nghĩ & tim kiếm để tìm thấy một mục nào đó.

Bạn có đang sử dụng Sitemap?

Sơ đồ trang web (sitemap) giống như một danh sách: danh sách các URL trên trang web của bạn mà trình thu thập thông tin có thể sử dụng để khám phá và lập chỉ mục nội dung thông qua danh sách đó. Một trong những cách dễ nhất để đảm bảo Google tìm thấy các trang của bạn là tạo một file Sitemap đáp ứng các tiêu chuẩn của Google và gửi nó thông qua Google Search Console. Mặc dù việc gửi một sơ đồ trang web không có nghĩa là bạn sẽ không cần tạo các điều hướng tốt trên trang web, nhưng nó chắc chắn có thể giúp trình thu thập thông tin theo một đường dẫn đến tất cả các trang quan trọng của bạn.

Đảm bảo rằng bạn chỉ bao gồm các URL mà bạn muốn được công cụ tìm kiếm lập chỉ mục và đảm bảo cung cấp cho các trình thu thập thông tin các hướng nhất quán. Ví dụ: không bao gồm URL trong sơ đồ trang web của bạn nếu bạn đã chặn URL đó qua tệp robots.txt hoặc bao gồm các URL trùng lặp trong sơ đồ trang web... (chúng ta sẽ tìm hiểu về canonical link (URL chuẩn) trong Chương 5!).

Website của bạn có bị lỗi?

Trong quá trình thu thập dữ liệu URL trên trang web của bạn, trình thu thập thông tin có thể gặp lỗi. Bạn có thể truy cập Google Search Console để xem danh sách các trang bị lỗi được bọ tìm kiếm phát hiện. Báo cáo này sẽ hiển thị cho bạn các lỗi máy chủ (500) hoặc lỗi trang không tồn tại (404).

Truy cập vào từng trang trong danh sách được báo cáo và báo cho quản trị web khắc phục chúng, hoặc bạn có thể tự mình làm nếu có thể.

Công cụ tìm kiếm phân tích & lập chỉ mục như thế nào?

Khi đã đảm bảo trang web của bạn được thu thập thông tin chính xác, việc tiếp theo cần chắc chắn là nó có thể được lập chỉ mục. Đúng vậy - việc trang web của bạn có thể được tìm thấy và thu thập thông tin bởi một công cụ tìm kiếm không có nghĩa là nó sẽ được lưu trữ trong chỉ mục của các công cụ này.

Trong phần trước về thu thập thông tin, chúng ta đã thảo luận về cách các công cụ tìm kiếm khám phá các trang trên website của bạn. Chỉ mục là nơi các trang đó được lưu trữ. Sau khi trình thu thập thông tin tìm thấy một trang, công cụ tìm kiếm sẽ cố gắng hiển thị nó giống như trình duyệt thông thường. Trong quá trình thực hiện, công cụ tìm kiếm sẽ phân tích nội dung của trang đó. Tất cả thông tin đã phân tích sẽ được lưu trữ trong chỉ mục của nó.

Các công cụ tìm kiếm lưu các nội dung được tìm thấy vào trong chỉ mục

Việc nắm rõ về cách lập chỉ mục của công cụ tìm kiếm sẽ giúp bạn biết phải làm thế nào để các trang trên website của bạn được nằm trong danh sách này.

Tôi có thể xem Googlebot thu thập các trang của mình như thế nào không?

Có, phiên bản cache của trang web phản ảnh nội dung của trang ở lần cuối cùng nó được Googlebot thu thập dữ liệu.

Google thu thập & tạo bản lưu trữ của các trang web khác nhau với tần suất khác nhau. Các website lớn và thường xuyên đăng bài mới như các trang báo, trang tin tức (vnexpress.net, dantri.vn v.v...) sẽ được Googlebot ghé thăm thường xuyên hơn so với các trang khác.

Bạn có thể xem phiên bản cache của một trang trên website bằng cách bấm vào nút mũi tên bên cạnh URL trong trang kết quả tìm kiếm.

Bấm vào nút mũi tên bên cạnh URL để xem bản lưu trong chỉ mục của một website

Trang có thể bị xóa khỏi chỉ mục hay không?

Có đấy bạn! Các trang hoàn toàn có khả năng bị gỡ bỏ khỏi chỉ mục! Điều này xảy ra do một vài lý do chính như sau:

  • URL đang trả về lỗi "không tìm thấy" (4XX) hoặc lỗi máy chủ (5XX) - Điều này có thể là do vô tình (trang đã được thay đổi URL nhưng chưa được thiết lập chuyển hướng 301 đúng cách) hoặc cố ý (trang đã bị xóa và lỗi 404 xuất hiện để làm cho nó bị xóa khỏi chỉ mục)
  • Trong mã nguồn của trang có thẻ meta noindex được thêm vào - Chủ sở hữu trang web có thể thêm thẻ này để hướng dẫn công cụ tìm kiếm bỏ qua trang khỏi chỉ mục của nó.
  • URL đã bị phạtvì vi phạm Nguyên tắc quản trị trang web của Google và do đó, đã bị xóa khỏi chỉ mục.
  • URL đã bị chặn thu thập thông tin bằng việc thêm bước đăng nhập trước khi khách truy cập có thể truy cập trang.

Nếu bạn tin rằng một trang trên trang web của bạn trước đây trong chỉ mục của Google không còn hiển thị nữa, bạn có thể sử dụng công cụ Kiểm tra URL để tìm hiểu trạng thái của trang hoặc sử dụng "Yêu cầu lập chỉ mục" để gửi các URL riêng lẻ vào chỉ mục.

Hướng dẫn công cụ tìm kiếm biết cách lập chỉ mục website của bạn

Sử dụng các thẻ META

Các thẻ META trong HTML là những hướng dẫn bạn có thể cung cấp cho các công cụ tìm kiếm về cách bạn muốn trang web của mình được xử lý.

Bạn có thể nói với trình thu thập dữ liệu của công cụ tìm kiếm những thứ như "không lập chỉ mục trang này trong kết quả tìm kiếm" hoặc "không truyền link equity cho bất kỳ liên kết nào trên trang này" v.v... Các hướng dẫn này được thực thi thông qua Robots Meta Tags trong cặp thẻ <head> của các trang web (được sử dụng phổ biến nhất) hoặc thông qua X-Robots-Tag trong HTTP header.

Robots Meta Tags

Thẻ meta robot có thể được sử dụng bằng cách đặt chúng trong cặp thẻ <head> ... </head> của trang web. Nó có thể loại trừ tất cả hoặc các công cụ tìm kiếm cụ thể. Sau đây là các thẻ meta phổ biến nhất, cùng với những tình huống bạn có thể áp dụng chúng trong thực tế.

<html>
    <head>
        <meta name="robots" content="{chỉ thị}" />
    </head>
    <body>
    <!--  Nội dung trangt web -->
    </body>
</html>

index hoặc noindex cho các công cụ biết liệu trang có nên được thu thập và lưu trong chỉ mục của công cụ tìm kiếm để truy xuất hay không. Nếu sử dụng "noindex" tức là bạn sẽ nói với các trình thu thập thông tin rằng bạn muốn trang bị loại trừ khỏi kết quả tìm kiếm. Theo mặc định, các công cụ tìm kiếm cho rằng họ có thể lập chỉ mục tất cả các trang, vì vậy sử dụng giá trị "index" là không cần thiết.

  • Khi nào nên sử dụng: Bạn nên chọn đánh dấu tất cả các trang có ít nội dung hoặc thậm chi không có nội dung là "noindex" để tránh thu thập dữ liệu nhưng bạn vẫn muốn khách truy cập truy cập được.

follow hoặc nofollow cho các công cụ tìm kiếm biết rằng có nên theo dấu các liên kết có trên trang hay không. Theo mặc định, tất cả các trang được coi là có thuộc tính "follow".

  • Khi nào nên sử dụng: nofollow thường được sử dụng cùng với noindex khi bạn đang cố gắng ngăn không cho trang bị lập chỉ mục cũng như ngăn trình thu thập thông tin theo các liên kết trên trang.

noarchive được sử dụng để hạn chế các công cụ tìm kiếm tạo bản sao lưu của trang web. Theo mặc định, các công cụ tìm kiếm sẽ duy trì các bản sao hiển thị của tất cả các trang mà chúng đã lập chỉ mục, có thể truy cập được cho người tìm kiếm thông qua liên kết được lưu trong bộ nhớ cache trong kết quả tìm kiếm.

  • Khi nào nên sử dụng: nếu website của bạn là một trang thương mại điện tử và giá bán thay đổi thường xuyên, bạn có thể xem xét áp dụng chỉ thị noarchive để ngăn người tìm kiếm thấy mức giá đã không còn được áp dụng.

Bạn có thể kết hợp các chỉ thị trên bằng cách ngăn cách chúng bằng một dấu phẩy:

<meta name="robots" content="noindex, nofollow" />

X-Robots-Tag

X-Robots-Tag được sử dụng trong HTTP header của URL, có sự linh hoạt và nhiều chức năng hơn so với thẻ meta nếu bạn muốn chặn các công cụ tìm kiếm theo tỷ lệ vì bạn có thể sử dụng các biểu thức chính quy (regular expressions), chặn các tệp không phải HTML và áp dụng các thẻ noindex.

Ví dụ: bạn có thể dễ dàng loại trừ toàn bộ thư mục như qmas.vn/loai-tru/mot-trong-nhung-url-bi-loai-tru khỏi công cụ tìm kiếm bằng biểu thức sau:

<Files ~ “\/?loai\-tru\/.*”> Header set X-Robots-Tag "noindex, nofollow"</Files>

Hoặc các file PDF:

<Files ~ “\.pdf$”> Header set X-Robots-Tag “noindex, nofollow”</Files>

Bạn có thể tìm Bản đặc tả về thẻ meta robots, thuộc tính data-nosnippet và X-Robots-Tag.

Việc hiểu được các cách khác nhau mà bạn có thể tạo ảnh hưởng đến việc thu thập thông tin và lập chỉ mục sẽ giúp bạn tránh những lỗi phổ biến có thể ngăn các trang quan trọng của bạn được tìm thấy.

Công cụ tìm kiếm xếp hạng kết quả như thế nào?

Làm cách nào để các công cụ tìm kiếm đảm bảo rằng khi ai đó nhập truy vấn vào thanh tìm kiếm, họ sẽ nhận được kết quả có liên quan nhất? Quá trình đó được gọi là xếp hạng hoặc thứ tự kết quả tìm kiếm theo mức độ phù hợp nhất cho tới ít liên quan nhất cho một truy vấn cụ thể.

Các công cụ tìm kiếm xếp hàng nội dung có liên quan đến câu hỏi của người dùng

Để xác định mức độ liên quan, các công cụ tìm kiếm sử dụng các thuật toán, một quy trình hoặc công thức mà thông tin được lưu trữ được truy xuất và sắp xếp theo cách có ý nghĩa. Các thuật toán này đã trải qua nhiều thay đổi trong nhiều năm qua để cải thiện chất lượng kết quả tìm kiếm. Ví dụ tiêu biểu nhất là Google, họ thực hiện điều chỉnh thuật toán mỗi ngày - một số thay đổi là các chỉnh sửa nhỏ về chất lượng, trong khi các cập nhật khác áp dụng cho phần lõi của thuật toán xếp hạng được triển khai để giải quyết một vấn đề cụ thể (như thuật toán Penguin để giải quyết vấn đề về spam liên kết).

Tại sao các thuật toán lại được thay đổi thường xuyên như vậy? Có phải Google chỉ đang cố gắng đánh lạc hướng chúng ta?

Mặc dù Google không tiết lộ thông tin cụ thể về lý do tại sao họ làm như vậy, nhưng chúng ta có thể tin rằng những gì Google cố gắng nhắm đến khi thực hiện điều chỉnh thuật toán là để cải thiện chất lượng tìm kiếm tổng thể. Và thực tế đã chứng minh cho thấy việc tìm kiếm trên Google càng ngày càng trở nên dễ dàng, tới mức làm cho chúng ta có cảm tưởng Google hiểu  rõ những gì người dùng đang suy nghĩ khi thực hiện truy vấn tìm kiếm vậy.

Nhưng cũng chính vì những thay đổi được áp dụng rất thường xuyên, nên nếu cảm thấy một thay đổi nào đó đã ảnh hưởng đến trang web của bạn, bạn hãy bỏ chút công sức ra so sánh nó với Nguyên tắc Chất lượng Tìm kiếm hoặc Nguyên tắc Xếp hạng Chất lượng Tìm kiếm, cả hai đều nói rất rõ về những gì công cụ tìm kiếm muốn.

Công cụ tìm kiếm muốn gì?

Một câu đơn giản thôi, đó là: cung cấp các câu trả lời hữu ích cho các câu hỏi của người tìm kiếm trong các định dạng hữu ích nhất.

Nhưng nếu điều đó đúng, thì tại sao bây giờ SEO lại khác so với những năm trước?

Hãy suy nghĩ về việc khi chúng ta học một ngôn ngữ mới.

Lúc đầu, sự hiểu biết về ngôn ngữ đó tất nhiên sẽ rất thô sơ. Tuy nhiên theo thời gian, những kiến thức bắt đầu sâu sắc hơn và chúng ta học được ngữ nghĩa - ý nghĩa đằng sau ngôn ngữ và mối quan hệ giữa các từ và cụm từ. Cuối cùng, bằng việc thực hành đủ, chúng ta hiểu đủ tốt về ngôn ngữ, thậm chí hiểu sắc thái, và có thể cung cấp câu trả lời cho các câu hỏi thậm chí mơ hồ hoặc không đầy đủ.

Các công cụ tìm kiếm cũng vậy. Khi các mới bắt đầu học ngôn ngữ của chúng ta, việc nhiều người áp dụng các thủ thuật xấu và không hướng đến chất lượng dễ dàng đánh lừa được chúng. Ví dụ nếu bạn muốn tăng xếp hạng cho một từ khóa cụ thể "thiết kế web giá rẻ", bạn có thể nhồi hàng loạt từ khóa này vào trong nội dung của trang web và rắt có khả năng Google sẽ cho rằng website của bạn là câu trả lời phù hợp nhất:

Chào mừng đến với QMAS - dịch vụ thiết kế web giá rẻ! Chúng tôi là dịch vụ thiết kế web giá rẻ số 1 tại Quảng Ninh. Rất nhiều khách hàng hài lòng với dịch vụ thiết kế web giá rẻ của chúng tôi. Tất nhiên mặc dù chúng tôi thiết kế web giá rẻ nhưng chất lượng luôn được đảm bảo....

Bạn có cảm thấy "chối" không? Tôi đoán chắc là bạn rất "chối" với những nội dung kiểu như thế này.

Thực hiện chiến thuật này mang lại trải nghiệm người dùng thực sự tệ hại, và thay vì ấn tượng với dịch vụ mà họ cung cấp, hầu hết mọi người đều cảm thấy "phát điên".

Thực ra, chiến thuật này có thể đã hoạt động trong quá khứ, nhưng đây không bao giờ là điều các công cụ tìm kiếm muốn. Và chúng buộc phải thay đổi...

Vai trò của các liên kết trong SEO

Khi nói về các liên kết, chúng ta có thể nói về hai loại: Backlink hay Inbound link là các liên kết từ những trang web khác trỏ về website của bạn; và Internal link là các liên kết giữa các trang trên chính website của bạn.

Hình minh họa Backlink và Internal Link

Trong lịch sử, các liên kết đã đóng một vai trò vô cùng to lớn trong SEO. Từ thuở sơ khai, các công cụ tìm kiếm rất cần sự trợ giúp để tìm ra URL nào đáng tin cậy hơn các URL khác và giúp chúng xác định cách xếp hạng kết quả tìm kiếm. Việc tính toán số lượng liên kết trỏ đến bất kỳ trang web cụ thể nào đã giúp chúng làm điều này.

Backlinks hoạt động rất giống với giới thiệu truyền miệng ngoài đời thực. Ví dụ, hãy lấy một ví dụ về QMAS (ví dụ thôi nhé 😊):

  • Giới thiệu từ những người khác = tin cậy lớn: Nếu rất nhiều người nói với bạn rằng QMAS là dịch vụ thiết kế website uy tín tại Quảng Ninh, bạn gần như chắc chắn sẽ tìm đến QMAS nếu có nhu cầu thiết kế website.
  • QMAS tự giới thiệu = thiên vị, không đáng tin cậy: QMAS luôn rêu rao quảng bá rằng chúng tôi là dịch vụ thiết kế website uy tín tại Quảng Ninh.
  • Giới thiệu từ các nguồn không liên quan = không đáng tin cậy và có thể bị phạt và gắn mác SPAM: QMAS trả công cho các cộng tác viên để họ giới thiệu với người khác rằng dịch vụ thiết kế Website của QMAS rất chất lượng.
  • Không được giới thiệu = độ tin cậy không rõ ràng: dịch vụ của QMAS có thể tốt hoặc không, vấn đề là không ai biết để có thể chắc chắn với bạn về điều đó.

Đây là lý do tại sao PageRank (xếp hạng trang web) được tạo ra. PageRank (một phần của thuật toán lõi của Google) là một thuật toán phân tích liên kết được đặt theo tên của một trong những người sáng lập của Google, Larry Page. PageRank ước tính tầm quan trọng của một trang web bằng cách đo lường chất lượng và số lượng liên kết trỏ đến nó. Giả định là một trang web càng phù hợp, quan trọng và đáng tin cậy thì sẽ càng có nhiều liên kết đến nó hơn.

Bạn càng có nhiều backlink tự nhiên từ các trang web có độ tin cậy cao, tỷ lệ bạn được xếp hạng cao hơn trong kết quả tìm kiếm sẽ càng cao.

Vai trò của nội dung trong SEO

Nội dung có nghĩa là bất kỳ thứ gì có nghĩa có thể được người tìm kiếm sử dụng - có nội dung video, có nội dung hình ảnh, và tất nhiên là cả văn bản. Nếu công cụ tìm kiếm là máy trả lời, nội dung là phương tiện để công cụ cung cấp các câu trả lời đó.

Bất cứ khi nào ai đó thực hiện tìm kiếm, có hàng triệu kết quả có thể đưa ra, vậy làm thế nào để các công cụ tìm kiếm quyết định xem trang nào mang lại giá trị cho người tìm kiếm?

Một phần quan trọng trong việc xác định vị trí xếp hạng của website cho một truy vấn nhất định là mức độ phù hợp của nội dung trên trang đó với mục đích truy vấn. Nói cách khác, trang này có khớp với các từ đã được tìm kiếm và giúp hoàn thành nhiệm vụ mà người tìm kiếm đang cố gắng thực hiện không?

Do tập trung vào sự hài lòng của người dùng và hoàn thành nhiệm vụ trả lời, nên không có quy chuẩn chắc chắn nào về độ dài nội dung của bạn, số lần từ khóa xuất hiện trong nội dung hoặc các thẻ tiêu đề. Tất cả những điều đó có thể đóng vai trò trong việc một trang hoạt động tốt như thế nào trong tìm kiếm, nhưng trọng tâm phải là người dùng sẽ đọc nội dung.

Ngày nay, với hàng trăm hoặc thậm chí hàng ngàn chỉ tiêu xếp hạng, nhất quán vẫn có 3 chỉ tiêu hàng đầu: số liên kết đến trang web của bạn (đóng vai trò là tín hiệu đáng tin cậy của bên thứ ba), nội dung trên trang (nội dung chất lượng đáp ứng mục đích của người tìm kiếm) và RankBrain.

RankBrain là gì?

RankBrain là thành phần máy học trong thuật toán lõi của Google. Máy học là một chương trình máy tính liên tục cải thiện dự đoán của mình theo thời gian thông qua các quan sát và dữ liệu đào tạo mới. Nói cách khác, nó luôn luôn học hỏi và bởi vì nó luôn luôn học hỏi, kết quả tìm kiếm sẽ không ngừng được cải thiện.

Ví dụ: nếu RankBrain nhận ra một trang xếp hạng thấp hơn cung cấp kết quả tốt hơn cho người dùng so với trang có xếp hạng cao hơn, bạn có thể chắc chắn rằng RankBrain sẽ điều chỉnh các kết quả đó: di chuyển kết quả phù hợp xếp cao hơn và hạ cấp các trang có liên quan ít hơn.

Một hình ảnh cho thấy kết quả có thể thay đổi như thế nào và đủ biến động để hiển thị các thứ hạng khác nhau thậm chí nhiều giờ sau đó

Những điều này có ý nghĩa gì trong SEO?

Vì Google sẽ tiếp tục sử dụng RankBrain để truyền đi những nội dung hữu ích, phù hợp nhất, nên chúng ta, những SEOer, cần tập trung vào việc thực hiện ý định của người tìm kiếm hơn bao giờ hết. Cung cấp thông tin và trải nghiệm tốt nhất có thể cho những người tìm kiếm có thể truy cập trang của bạn và bạn đã thực hiện bước đi lớn đầu tiên để hoạt động tốt trong thế giới của RankBrain.

Số liệu tham gia: tương quan, quan hệ nhân quả, hay cả hai?

Với xếp hạng của Google, số lượng tương tác rất có thể là mối tương quan một phần và là một phần nguyên nhân.

Khi nói số lượng tương tác, có nghĩa chúng ta đang nói đến những dữ liệu thể hiện cách người tìm kiếm tương tác với trang web của bạn từ kết quả tìm kiếm. Điều này bao gồm những thứ như:

  • Số nhấp chuột: lượt truy cập từ trang kết quả tìm kiếm.
  • Thời gian trên trang: lượng thời gian khách truy cập dành cho một trang trước khi rời khỏi.
  • Tỷ lệ thoát: tỷ lệ phần trăm của tất cả các phiên trên trang web nơi người dùng chỉ xem một trang duy nhât.
  • Pogo Sticking: người dùng nhấp vào kết quả trên trang kết quả tìm kiếm nhưng sau đó do không thấy thỏa mãn câu hỏi nên nhanh chóng quay lại SERP để chọn kết quả khác.

Rất nhiều hiều thử nghiệm từ những chuyên gia SEO đã chỉ ra rằng các số lượng tương tác có tương quan với thứ hạng cao hơn, nhưng nguyên nhân vẫn được tranh luận sôi nổi. Số lượng tương tác tốt chỉ là biểu hiện của các trang web được xếp hạng cao? Hay các trang web được xếp hạng cao bởi vì họ có lượng tương tác tốt?

Google nói gì?

Mặc dù chưa không bao giờ nhắc đến các tín hiệu xếp hạng trực tiếp, nhưng Google đã nói rõ ràng rằng họ hoàn toàn sử dụng dữ liệu nhấp chuột để sửa đổi kết quả tìm kiếm cho các truy vấn cụ thể.

Theo Udi Manber, cựu Giám đốc chất lượng tìm kiếm của Google:

[twitter url="https://twitter.com/dannysullivan/status/580632457877331968"]

Bản thân bảng xếp hạng bị ảnh hưởng bởi dữ liệu nhấp chuột. Nếu chúng tôi phát hiện ra rằng, đối với một truy vấn cụ thể, 80% mọi người nhấp vào kết quả thứ 2 và chỉ 10% nhấp vào kết quả đầu tiền, sau một thời gian chúng tôi nhận ra có lẽ #2 là kết quả mà mọi người muốn, vì vậy chúng tôi sẽ hoán đổi vị trí giữa chúng.

Một nhận xét khác từ Edmond Lau, cựu kỹ sư Google, càng thêm chứng thực điều này:

Khá rõ ràng rằng bất kỳ công cụ tìm kiếm nào cũng sẽ sử dụng dữ liệu nhấp chuột vào kết quả tìm kiếm để thay đổi xếp hạng và cải thiện chất lượng tìm kiếm. Các cơ chế thực tế về cách sử dụng dữ liệu nhấp chuột thường là độc quyền & có sự khác nhau giữa các công cụ tìm kiếm, nhưng Google cho thấy rõ rằng họ sử dụng dữ liệu nhấp chuột với các bằng sáng chế của mình trên hệ thống như các mục nội dung được điều chỉnh theo thứ hạng.

Có gì chứng minh điều này?

Đã có các thử nghiệm khác nhau để xác nhận rằng Google sẽ điều chỉnh thứ tự các kết quả tìm kiếm để đáp ứng với sự tham gia của người tìm kiếm:

  • Thử nghiệm của Rand Fishkin năm 2014 đã dẫn đến kết quả thứ 7 di chuyển lên vị trí số 1 sau khi có khoảng 200 người nhấp vào URL từ trang kết quả tìm kiếm. Điều đáng chú ý là, cải thiện thứ hạng dường như không liên quan với vị trí của những người đã truy cập liên kết. Vị trí xếp hạng tăng vọt ở Hoa Kỳ, nơi có nhiều người tham gia, trong khi vị trí này vẫn thấp hơn trên trang ở Google Canada, Google Úc, v.v.
  • So sánh của Larry Kim giữa các trang hàng đầu và vị trí trung bình của chúng trước và sau RankBrain dường như chỉ ra rằng trí tuệ nhân tạo của Google làm giảm vị trí xếp hạng của các trang mà mọi người không dành nhiều thời gian trên đó.
  • Thử nghiệm của Darren Shaw cũng cho thấy tác động từ hành vi người dùng đối với kết quả tìm kiếm địa phương và bản đồ.

Vì các số liệu về mức độ tham gia của người dùng rõ ràng được sử dụng để điều chỉnh SERP cho chất lượng và thay đổi vị trí xếp hạng, nên chúng ta có thể nói rằng khi SEO, chúng ta nên tối ưu hóa để tương tác tốt với người dùng.

Về mặt xếp hạng các trang web, số liệu tương tác hoạt động như một công cụ kiểm tra thực tế. Các yếu tố khách quan như liên kết và nội dung trước tiên sẽ xếp hạng trang, sau đó số liệu tương tác sẽ giúp Google điều chỉnh nếu họ thấy xếp hạng đó chưa đúng.

Sự phát triển của kết quả tìm kiếm

Quay trở lại thời kỳ khi các công cụ tìm kiếm thiếu rất nhiều sự tinh tế mà họ có được ngày nay, thuật ngữ "10 liên kết xanh" đã được đặt ra để mô tả cấu trúc phẳng của SERP. Bất cứ khi nào tìm kiếm được thực hiện, Google sẽ trả về một trang có 10 kết quả không phải trả tiền, mỗi kết quả có cùng định dạng.

Hình ảnh cho bạn hình dung về cách 10 liên kết xanh hiển thị

Trong bối cảnh tìm kiếm này, chiếm được vị trí số 1 là chiếc chén thánh của SEO. Nhưng rồi mọi chuyện thay đổi. Google bắt đầu thêm các kết quả với định dạng mới vào trang kết quả tìm kiếm, được gọi là SERP features (xem lại Chương 1) như:

  • Quảng cáo trả tiền
  • Featured snippets
  • Hộp mọi người cũng hỏi
  • Hộp bản đồ địa phương
  • Bảng kiến thức
  • Sitelinks

Và Google đang phát triển liên tục thêm những cái mới. Họ thậm chí đã thử nghiệm với SERP không có kết quả và chỉ hiển thị nhiều hơn khi người dùng muốn.

Việc bổ sung các tính năng này gây ra một số hoảng loạn ban đầu. Thứ nhất, , nhiều trong số các tính năng này khiến kết quả tìm kiếm tự nhiên bị đẩy xuống hơn nữa trên SERP. Và thứ hai là ít người tìm kiếm nhấp vào kết quả tìm kiếm tự nhiên hơn do có thể họ đã tìm thấy câu trả lời trên chính trang kết quả.

Vậy tại sao Google làm điều này? Tất cả là do trải nghiệm tìm kiếm. Hành vi người dùng chỉ ra rằng một số truy vấn sẽ được thỏa mãn tốt hơn bởi các định dạng nội dung khác nhau thay vì danh sách thông thường như truyền thống.

Ý định tìm kiếm SERP features có thể xuất hiện
Thông tin Featured Snippet
Thông tin với một câu hỏi Câu trả lời trực tiếp / Biểu đồ kiến thức
Địa phương Bản đồ
Giao dịch Shopping

Chúng ta sẽ nói nhiều hơn về ý định tìm kiếm trong Chương 3. Nhưng hiện tại, điều quan trọng là phải biết rằng câu trả lời có thể được gửi tới người tìm kiếm trong một loạt các định dạng khác nhau và cách bạn cấu trúc nội dung của mình có thể tác động đến định dạng mà nó xuất hiện trong tìm kiếm.

Tìm kiếm mang tính địa phương

Một công cụ tìm kiếm như Google có chỉ mục độc quyền của danh sách các doanh nghiệp tại địa phương, từ đó tạo ra kết quả tìm kiếm mang tính địa phương.

Nếu bạn đang thực hiện công việc SEO local cho một doanh nghiệp có vị trí thực tế và khách hàng có thể truy cập (ví dụ: nha sĩ) hoặc cho một dịch vụ phục vụ tại địa điểm của khách hàng (ví dụ: thợ sửa ống nước), hãy đảm bảo rằng bạn yêu cầu, xác minh và tối ưu hóa Google My Business.

Khi nói đến kết quả tìm kiếm được địa phương hóa, Google sử dụng ba yếu tố chính để xác định thứ hạng:

  1. Sự liên quan
  2. Khoảng cách
  3. Sự nổi bật

Sự liên quan

Sự liên quan là mức độ phù hợp của một doanh nghiệp địa phương phù hợp với những gì người tìm kiếm đang tìm. Để chắc chắn doanh nghiệp đang có mọi giải pháp phù hợp với người tìm kiếm, hãy đảm bảo thông tin kinh doanh đã được điền đầy đủ và chính xác.

Khoảng cách

Google sử dụng vị trí địa lý của bạn để cho kết quả địa phương hóa tốt hơn. Kết quả tìm kiếm địa phương cực kỳ nhạy cảm với độ gần, trong đó đề cập đến vị trí của người tìm kiếm và/hoặc vị trí được chỉ định trong truy vấn (nếu có).

Sự nổi bật

Với sự nổi bật là một yếu tố, Google đang tìm cách tưởng thưởng cho các doanh nghiệp nổi tiếng trong thế giới thực. Ngoài sự nổi bật thực tế của doanh nghiệp, Google cũng xem xét một số yếu tố trực tuyến để xác định thứ hạng cho tìm kiếm địa phương hóa, chẳng hạn như:

Lượt đánh giá

Số lượt đánh giá mà một doanh nghiệp địa phương nhận được và tình cảm của những đánh giá đó, có tác động đáng chú ý đến khả năng xếp hạng của họ trong kết quả tìm kiếm địa phương hóa.

Tham chiếu

"Tham chiếu kinh doanh" hay "business listing" là một tham chiếu dựa trên web cho "NAP" (viết tắt của name, address, và phone) của doanh nghiệp địa phương trên nền tảng địa phương hóa.

Bảng xếp hạng địa phương bị ảnh hưởng bởi số lượng và tính nhất quán của các tham chiếu kinh doanh địa phương. Google lấy dữ liệu từ nhiều nguồn khác nhau để liên tục tạo nên chỉ số kinh doanh địa phương. Khi Google tìm thấy nhiều tài liệu tham khảo nhất quán về tên, địa điểm và số điện thoại của doanh nghiệp, nó sẽ củng cố "niềm tin" của Google về tính hợp lệ của dữ liệu đó. Điều này sau đó dẫn đến việc Google có thể hiển thị doanh nghiệp với mức độ tự tin cao hơn. Google cũng sử dụng thông tin từ các nguồn khác trên web, chẳng hạn như liên kết và bài viết.

Xếp hạng tự nhiên

Thực hành tốt nhất về SEO cũng áp dụng cho SEO địa phương, vì Google cũng xem xét vị trí của trang web trong kết quả tìm kiếm tự nhiên khi xác định thứ hạng địa phương.

Trong chương tiếp theo, bạn sẽ học các cách thực hành tốt nhất trên trang sẽ giúp Google và người dùng hiểu rõ hơn về nội dung của bạn.

Tương tác địa phương

Mặc dù không được Google liệt kê là yếu tố xếp hạng địa phương, nhưng vai trò của sự tương tác sẽ chỉ tăng lên theo thời gian. Google tiếp tục làm phong phú kết quả địa phương bằng cách kết hợp dữ liệu trong thế giới thực như thời gian ghé thăm phổ biến, thời gian ghé thăm trung bình...

Ảnh chụp biểu đồ thời gian ghé thăm phổ biến cho tìm kiếm địa phương

...hay thậm chí cung cấp cho người tím kiếm khả năng đặt câu hỏi trực tiếp!

Ảnh chụp khung hỏi & đáp cho truy vấn địa phương

Không còn nghi ngờ gì nữa, hơn bao giờ hết, kết quả tìm kiếm địa phương đang bị ảnh hưởng bởi dữ liệu từ thế giới thực. Tính tương tác này là cách người tìm kiếm tương tác và phản hồi với các doanh nghiệp địa phương, thay vì những thông tin hoàn toàn tĩnh như liên kết và tham chiếu.

Vì Google muốn cung cấp các doanh nghiệp địa phương tốt nhất, phù hợp nhất cho người tìm kiếm, nên việc họ sử dụng các số liệu tương tác theo thời gian thực để xác định chất lượng và mức độ liên quan là hoàn hảo.

Kết

Bạn không cần phải biết kỹ về các thuật toán của Google (vẫn còn là một bí ẩn!) làm gì, Nhưng cho đến thời điểm này bạn có lẽ cũng đã có những kiến thức cơ bản tuyệt vời về cách công cụ tìm kiếm khám phá, phân tích, lưu trữ và xếp hạng nội dung. Và bạn hãy chuẩn bị mang những kiến thức đó để tìm hiểu về cách chọn từ khóa mà nội dung của bạn sẽ nhắm mục tiêu trong Chương 3 (Nghiên cứu từ khóa)!

Công ty TNHH Giải pháp Website & Ứng dụng phần mềm Quang Minh

🚩 Địa chỉ
Số 81 Võ Huy Tâm, Phường Cẩm Trung, Thành phố Cẩm Phả, Tỉnh Quảng Ninh
📞 Điện thoại
(0862) 814-787
💌 Email
[email protected]
🌐 Zalo OA
https://zalo.me/369605269295116980
🌐 Facebook
https://www.facebook.com/qmasdotvn/
🌐 Twitter