Khái niệm SEO – Search Engine Optimization, hay thường gọi là tối ưu hóa bộ máy tìm kiếm có lẽ không mấy xa lạ với nhiều người sử dụng chúng ta. Nhưng việc hiểu rõ về bản chất cũng như tận dụng được ưu điểm của SEO thì không phải ai cũng biết và thực hiện đúng cách. Trong bài viết dưới đây, chúng tôi sẽ giới thiệu với các bạn những khái niệm và yếu tố cơ bản nhất về SEO cũng như cách sử dụng và tối ưu hóa chúng. 1. SEO là gì? Mỗi khi bạn nhập từ khóa vào ô tìm kiếm của 1 dịch vụ SE – Search Engine bất kỳ nào đó như Google, Bing, Yahoo, Ask... sau đó nhấn Enter, thì ngay lập tức sẽ nhận được danh sách tất cả các kết quả tìm được trả về từ phía hệ thống. Và theo thói quen, chúng ta thường xuyên truy cập vào những kết quả hiển thị ở phía trên, vì chúng có chứa nhiều thông tin, dữ liệu có liên quan đến yêu cầu tìm kiếm của người sử dụng. Nếu các bạn tự hỏi tại sao những website đó lại đạt được thứ hạng cao đến như vậy, thì đó là vì họ đã sử dụng công nghệ marketing vô cùng sáng tạo và hiệu quả - Search Engine Optimization (SEO). Chúng ta có thể hiểu nôm na rằng đây là thủ thuật cải thiện hiệu suất đối với các bộ máy tìm kiếm và đặt thứ tự website của bạn cao hơn nhiều so với các trang web khác có cùng nội dung, và mỗi lần người dùng thực hiện 1 yêu cầu tìm kiếm qua câu lệnh truy vấn, hệ thống sẽ tìm kiếm và hiển thị website của bạn ở phía trên danh sách. Mặt khác, SEO còn giúp website của bạn tăng lượng traffic đáng kể. Cơ chế làm việc của Search Engine: Điểm cơ bản đầu tiên về SEO mà các bạn cần biết đó là các Search Engine không phải là “con người”. Điều này chắc chắn là rất rõ ràng, đặc biệt là trong cách người dùng và bộ máy tìm kiếm “nhìn” các trang web như thế nào. Không giống như con người, các hệ thống Search Engine được định hướng và phát triển theo cách định hướng có sẵn. Mặc dù công nghệ thông tin thay đổi và nâng cao theo từng ngày từng giờ, nhưng về mặt bản chất thì Search Engine vẫn còn cách rất xa con người về mặt nhìn và “cảm nhận” giao diện và nội dung bên trong của các website. Mà thay vào đó, Search Engine sẽ tiến hành thu thập dữ liệu của website, tìm kiếm từng phần nội dung cụ thể (chủ yếu dưới dạng văn bản) để khái quát được ý tưởng chủ đạo của trang web đó. Nhưng thực ra thì phần giải thích ngắn gọn bên trên cũng chưa hoàn toàn chính xác, bởi vì trong phần tiếp theo của bài viết, chúng tôi sẽ giải thích về quá trình hoạt động kế tiếp của Search Engine để lọc và cung cấp cho người sử dụng kết quả tìm kiếm, chẳng hạn như: thu thập dữ liệu, lập index, xử lý, tính toán theo logic và sắp xếp. Trước tiên, Search Engine sẽ tiến hành thu thập nội dung – crawl của trang web để “xem” có những gì ở đó. Công đoạn này được thực hiện bởi 1 phần của ứng dụng, gọi là crawler hoặc spider (hay là Googlebot trong trường hợp bạn sử dụng dịch vụ của Google). Về mặt kỹ thuật, các Spider này sẽ đảm nhận nhiệm vụ “theo dõi” các đường link từ trang này tới trang khác, sau đó thiết lập index theo cách riêng của hệ thống. Bạn hãy tưởng tượng rằng tổng số lượng trang web hiện nay là trên 20 tỉ (tăng lên theo từng giờ), do vậy Spider không thể kiểm soát được hàng ngày có 1 trang web mới được tạo hay đó chỉ là trang có sẵn được thay đổi hoặc cập nhật, và đôi khi Crawler không “ghé thăm” trang web của bạn trong nhiều tháng cũng là điều dễ hiểu. Về mặt kỹ thuật, tất cả những gì chúng ta có thể làm được là kiểm tra những gì Crawler “xem” được từ website. Như đã đề cập ở phía trên của bài viết, các Crawler không phải là “con người”, do vậy chúng không thể "nhìn" được các file ảnh, movie dưới dạng Flash, JavaScript, Frame, các trang web và thư mục được bảo vệ bằng mật khẩu... do vậy nếu website của bạn được xây dựng chủ yếu dựa trên các thành phần như vậy thì tốt nhất là nên sử dụng dịch vụ Spider Simulator để kiểm tra xem những gì sẽ được hiển thị qua “con mắt” của Spider thật. Nếu chúng không hiển thị, thì tình trạng tương tự như vậy cũng sẽ xảy ra trong thực tế, hay nói theo cách khác là chúng không tồn tại đối với Search Engine Sau khi 1 trang web bất kỳ được crawl, bước tiếp theo sẽ là lập index cho toàn bộ phần nội dung bên trong. Trang web được index thông thường sẽ lưu trữ trong 1 cơ sở dữ liệu khổng lồ, và có thể được truy cập và sử dụng bất cứ lúc nào sau này. Về mặt cơ bản, quá trình index này là công đoạn tìm kiếm và “nhận dạng” các ký tự cũng như cụm từ để miêu tả ý tưởng cụ thể nhất của website, sau đó gán trang web với các nhóm từ khóa nhất định. Tất nhiên, đối với người bình thường thì việc tóm tắt và khái quát toàn bộ nội dung như vậy rất khó thực hiện, nếu không muốn nói là không thể làm được. Đôi khi hệ thống không thể nhận được nội dung, ý tưởng chính của website nhưng nếu người sử dụng can thiệp vào quá trình này bằng cách tối ưu hóa và chỉnh sửa thông tin cần thiết, thì hệ thống sẽ rút gọn và cải thiện hiệu suất của quá trình này khá đáng kể, cũng như giúp cho website đạt được thứ tự xếp hạng cao hơn.