Cách thức gia tăng hiệu quả SEO là một trong những keyword được search nhiều nhất trên google về chủ đề Cách thức gia tăng hiệu quả SEO Trong bài viết này chung tôi sẽ viết bài Cách thức gia tăng hiệu quả SEO 2020
Search Engine Optimization - tối ưu hóa dụng cụ kiếm tìm (SEO) là công đoạn nâng cao chất lượng và lưu lượt truy cập website bằng phương pháp nâng cao kỹ năng hiển thị của website hoặc webpage[1] cho các bạn trên các máy tầm nã thông số như Google, Bing, Yahoo,... SEO liên quan tới cải thiện kết quả tìm kiếm không tốn phí (thành quả kiếm tìm "tự nhiên"), Không bao gồm nguồn tầm nã cập trực tiếp & việc mua quảng cáo hiển thị. Bên cạnh đó, khoa học SEO rất có thể tận dụng cho các dòng kiếm tìm khác nhau, gồm có tìm kiếm Bức Ảnh, video, nội dung học thuật, tin tức & kết quả trên công cụ tìm kiếm theo ngành nghề.[2]
Là một chiến lược Internet Marketing, SEO xem xét cơ chế hoạt động, những thuật toán kiểm soát hành vi của công cụ tậu kiếm; các gì khách hàng tìm kiếm, các thuật ngữ hoặc trong khoảng khóa được nhập vào & dụng cụ kiếm tìm ưa chuộng của đối tượng kim chỉ nam. SEO dùng để làm cải thiện thứ hạng website trên trang thành tựu của dụng cụ tìm kiếm (SERP), nhờ ấy nâng cao lưu lượng truy cập & lượng khách hàng được chuyển đổi từ nguồn này.[3]
Khác có tối ưu hóa công cụ tìm kiếm toàn bộ (Local SEO) - tập hợp tối giản hóa khả năng hiển thị Webpage của công ty lúc người dùng tìm kiếm những sản phẩm hoặc dịch vụ với gắn nhân tố địa phương (sản phẩm A ở địa phương B), SEO quy tụ đa dạng hơn vào những tìm kiếm phạm vi quốc gia hoặc quốc tế.
lịch sử hào hùng
Năm 1990, các ứng dụng tìm kiếm trước tiên (như ALIweB) lập danh sách những website, những quản lý viên website chỉ việc gửi URL của trang đến các phần mềm tìm kiếm khác biệt để được thu thập thông số, trích xuất kết nối tới những trang khác từ website bằng Trình thu thập dữ liệu web (Web Crawler) để được lưu & sắp xếp trong bộ thông số của họ. cùng lúc đó, 1 chương trình, được gọi là bộ chỉ mục (indexer), sẽ trích xuất thông tin về trang để thu thập về sau, giống như những trong khoảng chứa, địa điểm & tỷ lệ từng từ trong trang, tương tự như tổng quan các liên kết mà trang cất.[4]
tới năm 1997, những lập trình viên của công cụ tìm kiếm như Altavista & Infoseek đã nhận ra các nhà quản trị website rất có thể đề ra thông tin khác với nội dung thực [5] hay thao túng 1 số thuộc tính trong nguồn HTML để nâng cao thứ hạng website [6]. bởi thế, họ đã phát triển các thuật toán xếp hạng phức tạp hơn, sở hữu tính tới các yếu tố bổ sung mà những quản trị website khó thao tác làm việc hơn để ngăn chặn [7]. điều đó rất cần thiết để hạn chế việc tạo ra thành quả tìm kiếm giả hoặc không liên quan có thể làm cho các bạn chuyển hẳn qua các nguồn tìm kiếm khác.
Hơn nữa, một số công cụ tìm kiếm cũng chủ động tiếp cận công việc công nghiệp SEO bằng phương pháp biến thành nhà tài trợ và khách mời thường xuyên tại các hội nghị, webchats & hội thảo về SEO, đưa thông tin & hướng dẫn đơn giản hóa website.[8][9] Ví dụ: Google có chương trình sơ đồ website (Sitemaps) để giúp quản lý viên web tìm hiểu nếu Google gặp mặt bất cứ sự cố nào lúc lập bảng danh mục những website & cung cấp dữ liệu về lưu lượng truy cập website trong khoảng Google [10]; dụng cụ quản trị website Bing cung ứng cách để quản lý viên gửi sơ đồ và nguồn cấp thông số web, cho phép quý khách xác minh "tốc độ thu thập dữ liệu" & theo dõi tình trạng xếp hạng của website.
sự liên quan với Google:
Là 1 trong những dụng cụ kiếm tìm phổ biến nhất hiện giờ, cơ chế Google bình chọn và xếp hạng website ảnh hưởng rất lớn tới SEO. Năm 1998, Sergey Brin và Larry Page đã cho ra đời Google [11] và thu hút được một lượng khán giả trung thành cùng với sự phát triển của Internet. Google giảm thiểu bị thao túng như các tiện ích tìm kiếm khác chỉ chú ý những yếu tố on-page (như tần suất trong khoảng khóa, thẻ meta, tiêu đề, liên kết & cấu tạo website) nhờ phối hợp cả yếu tố off-page (như Hyperlink, PageRank). PageRank, công thức toán học bình chọn chất lượng của trang phê duyệt việc để ý số lượng, giá trị của các trang kết nối tới nó [12]. 1 trang có PageRank cao hơn có công dụng được truy tìm cập bởi người lướt web tự dưng.
Vào 2007, Saul Hansell của New York Times cho thấy Google sử dụng hơn 200 điều kiện khác biệt khi xếp hạng các website [13], không bật mí những thuật toán họ tận dụng để xếp hạng những trang. Google đã công bố 1 chiến dịch chống lại những backlink[14] chuyển đổi PageRank bằng cách sử dụng tính chất nofollow (không theo dõi) trên những liên kết, Googlebot sẽ không còn giải quyết bất kỳ quan hệ nofollow nào [15].
Tháng 12 năm 2009, Google tuyên bố sử dụng lịch sử dân tộc tìm kiếm trên web của tất tần tật người mua để đề ra kết quả kiếm tìm phù hợp [16]. Vào ngày 8 tháng 6 năm 2010, Google dùng hệ thống xếp hạng website mới có tên Google Caffeine, được chấp nhận người mua sắm thấy kết quả tin tức, bài đăng trên diễn đàn và Content khác nhanh chóng rộng rãi so sở hữu trước đây [17]. Google Instant, trình duyệt tìm kiếm theo quỹ thời gian thực (realtime-search), được giới thiệu vào cuối năm 2010 nhằm nỗ lực để khiến cho kết quả kiếm tìm kịp thời và can dự hơn.[18]
Vào 02/2011, Google đã thông báo bản cập nhật Panda, trong đó xử phạt những website chứa Content nội dung trùng lặp trong khoảng những website & nguồn khác.[19]Google Penguin 2012 đã cố gắng xử phạt các website sử dụng các khoa học thao túng để cải thiện thứ hạng của họ trên công cụ tìm kiếm, nó hội tụ vào những liên kết spam bằng phương pháp thống kê chất lượng của các mối liên quan tới các trang.[20]
Vào 10/2019, Google công bố họ sẽ mở màn vận dụng các mô hình BERT, dự định liên kết khách hàng dễ dàng hơn sở hữu nội dung sở hữu can hệ và tăng chất lượng lưu lượt truy cập đến những website được xếp hạng trong trang thành tựu của dụng cụ tìm kiếm.[21][22]
cách thức công cụ tìm kiếm thu thập số liệu
các ứng dụng kiếm tìm tận dụng các thuật toán toán học phức tạp để diễn giải những website mà khách hàng kiếm tìm, những thuật toán này thỉnh thoảng được gọi là các "con nhện" kiểm tra mối liên quan giữa các website. những website nhận được không ít mối liên quan dẫn về (inbound link) hơn, hoặc các mối liên quan mạnh hơn, được cho là quan trọng hơn và đúng hơn với những gì người mua đang kiếm tìm.
các tool tìm kiếm bậc nhất, như Google, Bing và Yahoo!, tận dụng trình thu thập thông tin để sắm những trang cho kết quả kiếm tìm bằng thuật toán của họ. những trang được mối liên quan từ những trang được xếp hạng trong bộ dữ liệu của công cụ tìm kiếm khác không cần thiết phải được khai báo vì chúng được sắm thấy tự động hóa. Yahoo!, DMOZ khi vận hành trước kia đều yêu cầu khai báo thủ công và sự chuẩn y của loài người.[23] Google cung ứng Google Search Console giúp tạo và khai báo sơ đồ website XML không tính phí để đảm nói rằng tất cả các trang được mua thấy.[24]
Trình thu thập dữ liệu web cho dụng cụ tìm kiếm có thể để ý 1 số nhân tố khác biệt lúc thu thập dữ liệu website. không phải mọi trang đều được xếp hạng bởi các công cụ tìm kiếm. Khoảng bí quyết của các trang từ folder gốc (root directory) của một trang web cũng có thể có thể là một nhân tố trong việc những trang với được thu thập thông tin hay không.[25]
ngày nay, đa số những người đang tìm kiếm trên Google bằng dòng thiết bị dế yêu.[26] hồi tháng 11 năm 2016, Google đã lên tiếng đổi mới lớn đối với cách thu thập thông số website & bắt đầu xếp hạng theo ưu tiên cho thiết bị điện thoại.[27]
ngăn chặn thu thập dữ liệu:
để hạn chế bị lưu những nội dung không mong muốn, nhà quản lý website có thể ngăn “con nhện” thu thập dữ liệu một số tệp hoặc folder phê duyệt tệp robot.txt tiêu chuẩn trong thư mục gốc của tên miền. Ngoài ra, 1 trang có thể được loại trừ khỏi cơ sở thông số của công cụ kiếm tìm bằng phương pháp tận dụng thẻ meta giành riêng cho robot (thường là nội dung = "noindex">). lúc dụng cụ kiếm tìm truy tìm cập vào một trang website, tệp robots.txt nằm trong folder gốc là tệp được thu thập thông tin đầu tiên. sau đó, tệp robots.txt được phân tách cú pháp và sẽ chỉ dẫn cho robot trang nào không thể thu thập thông tin. Vì trình thu thập thông báo của dụng cụ tìm kiếm rất có thể giữ một bản sao được lưu trong bộ lưu trữ cache của tệp này, nhiều lúc nó hoàn toàn có thể thu thập số liệu các trang mà quản lý viên web ko muốn thu thập thông báo. các trang thường không được thu thập thông tin gồm có các trang đăng nhập cụ thể như giỏ đặt đơn hàng và Content dành cho người dùng, chả hạn như thành tựu tìm kiếm trong khoảng những tìm kiếm nội bộ. trong tháng 3 năm 2007, Google đã chú ý những nhà quản trị website rằng họ nên chặn đứng việc lập chỉ mục thành tựu tìm kiếm nội bộ vì những trang ấy bị xem như là spam tìm kiếm.[28]