Inilah realitas baru kita, era SEO di AI Overview. Jika ini membuatmu sedikit cemas sebagai praktisi SEO, tenang, kamu tidak sendirian.
Selama bertahun-tahun, kita diajarkan teknik yang sama, riset kata kunci, optimasi on-page, bangun backlink, dan kejar peringkat #1. Semua itu masih dan akan selalu menjadi fondasi yang krusial.
Tanpa dasar SEO tradisional yang kuat, kita tidak akan punya apa-apa. Namun, saat ini, memenangkan peringkat #1 saja ternyata tidak cukup.
Tantangan baru kita lebih kompleks, bagaimana caranya agar brand dan konten kita tidak hanya ranking, tetapi juga menjadi sumber rujukan yang dikutip langsung oleh AI di dalam jawabannya?
Bagaimana kita bertransisi dari sekadar “mengoptimasi untuk mesin pencari” menjadi “mengoptimasi untuk menjadi basis pengetahuan mesin itu sendiri”?
Perjalanan ini menuntut kita untuk memahami cara AI “berpikir” dan menyusun strategi konten yang bisa menanamkan otoritas kita langsung ke dalam parameternya. Mari kita bedah bersama, langkah demi langkah.
Membangun Otoritas untuk Mempengaruhi Kualitas Parameter LLM
Tujuan utama di sini adalah menanamkan sinyal kualitas dan keunikan yang superior ke dalam parameter atau “otak” model AI saat ia dilatih. Kita ingin AI belajar bahwa brand kita adalah sumber yang kredibel dan definitif.
1. Bahas Topik Secara Mendalam dengan Strategi Klaster Topik
Menggunakan topic cluster, kita memberi tahu AI bahwa website kita bukan hanya tahu tentang satu kata kunci, tetapi merupakan sebuah “perpustakaan mini” untuk keseluruhan topik tersebut.
Hal Ini secara langsung mempengaruhi mekanisme Self-Attention di dalam arsitektur Transformer. Menggunakan jaringan internal link yang padat dan konten yang saling terkait erat, kita menciptakan “medan gravitasi” semantik.
Saat crawler memproses web kita, mekanisme Self-Attention akan melihat bahwa token-token dalam topik ini (misal: “SEO,” “link building,” “keyword research”) memiliki bobot atensi yang sangat tinggi satu sama lain di dalam domain kita.
Proses ini “mengajari” model bahwa domain kita adalah pusat otoritas untuk klaster topik tersebut.
Misalkan, kita menargetkan topik “Content Marketing,” buat satu artikel pilar super lengkap berjudul “Panduan Content Marketing 2025”. Lalu, dukung dengan artikel-artikel spesifik seperti “Cara Membuat Kalender Editorial,” “Teknik Menulis Artikel Blog,” dan “Mengukur ROI Content Marketing,” yang semuanya menautkan kembali ke artikel pilar itu sendiri.
2. Ubah Cara Membuat Konten dengan Struktur Piramida
Sebaiknya sekarang kita memulai artikel dengan memberikan jawaban langsung dan ringkas atas pertanyaan utama, baru kemudian jelaskan lebih detail.
Proses ini adalah upaya untuk mereplikasi format data yang ideal dalam dataset pelatihan. LLM banyak dilatih pada data seperti Wikipedia (definisi dulu, lalu penjelasan) dan website Q&A.
Melalui penyajian jawaban secara langsung dan jelas di awal, kita membuat konten kita terlihat seperti “kunci jawaban” yang bersih, memudahkan proses ekstraksi fakta selama pelatihan dan meningkatkan probabilitas konten kita akan digunakan sebagai dasar untuk generasi output yang bersifat faktual.
Misalkan, untuk artikel berjudul “Apa itu E-E-A-T?”, paragraf pertamamu harus langsung mendefinisikannya: “E-E-A-T adalah singkatan dari Experience, Expertise, Authoritativeness, and Trustworthiness, sebuah kerangka kerja yang digunakan Google untuk menilai kualitas konten…” Baru setelah itu kamu bisa membahas cara dan detailnya.
3. Lebih Dekat dengan Entitas Besar di Industri Kita
Di dunia nyata, reputasi kamu ikut terangkat saat bergaul dengan orang-orang hebat. Ternyata, di dunia AI, konsep ini juga berlaku secara matematis.
Ini merupakan proses rekayasa Embedding secara tidak langsung. Tujuannya adalah untuk memperpendek “jarak vektor” antara entitas brand-mu dan entitas lain yang sudah punya nama besar.
Saat publikasi lain menulis “Menurut ahli SEO seperti Neil Patel dan [Nama Kamu]…”, proses pelatihan akan menyesuaikan posisi vektor “[Nama Kamu]” agar secara matematis berdekatan dengan vektor “Neil Patel” di dalam ruang multi-dimensi. Semakin dekat jaraknya, semakin kuat hubungan semantiknya.
Beberapa hal yang bisa dilakukan antara lain melakukan co-webinar dengan brand besar, tulis artikel sebagai tamu di blog industri terkemuka, atau berikan kutipan ahli untuk artikel mereka. Tujuannya adalah agar namamu sering disebut dalam “kalimat” yang sama dengan para pemain utama.
4. Menjadi Unik dengan Data, Metodologi, atau Studi Kasus
AI tidak akan mengutip karena kita mengulang fakta umum. AI akan mengutip karena kamu adalah sumber dari sebuah fakta atau wawasan baru.
Proses ini adalah cara untuk menciptakan pola unik yang akan disimpan di dalam parameter model. Ketika kamu menerbitkan data orisinal (“Studi kami menemukan 65%…”), kamu menciptakan sebuah fakta baru.
Bagi LLM yang tujuannya adalah memprediksi urutan kata yang paling mungkin, mengutip sebuah data spesifik yang diatribusikan (“menurut studi dari [Brand Kamu]…”) seringkali merupakan jalur dengan probabilitas lebih tinggi (lebih aman) daripada menghasilkan pernyataan umum yang berisiko halusinasi.
Oleh sebab itu, perbaikilah product knowledge kamu tentang produk yang kamu jual, kemudian lakukan riset internal di industrimu dan publikasikan hasilnya. Ciptakan sebuah metodologi bermerek (contoh: “Metode ABC untuk Audit Konten”). Tulis studi kasus yang sangat detail dengan angka dan hasil yang terukur.
5. Lebih Spesifik Terhadap Target Audiens
Daripada menjadi sumber #100 untuk topik umum, jadilah sumber #1 untuk audiens yang lebih spesifik.
Ini memanfaatkan cara kerja Self-Attention pada saat inferensi (ketika user bertanya). Jika seorang user bertanya “Bagaimana strategi SEO untuk startup fintech di Indonesia?”, mekanisme atensi akan memberi bobot sangat tinggi pada token “startup fintech” dan “Indonesia”.
Jika konten kita adalah satu-satunya sumber di dalam dataset pelatihan yang secara mendalam membahas kombinasi spesifik vektor-vektor tersebut, probabilitasnya untuk menjadi dasar jawaban akan meroket.
Alih-alih menulis “Panduan SEO,” tulislah “Panduan SEO untuk Brand F&B Lokal” atau “Strategi Link Building untuk Bisnis SaaS B2B.”
Tingkatkan Awareness dan Brand Mention, Lebih dari Sekadar Backlink
Tujuan di sini adalah meningkatkan frekuensi dan kualitas penyebutan entitas kita di seluruh dataset pelatihan mentah. Kita ingin AI melihat nama brand kita di mana-mana dalam konteks yang tepat.
1. Fokus pada Penyebutan Entitas (Entity Mention)
Model bahasa modern berpikir dalam entitas, bukan hanya hyperlink. Setiap kali namamu disebut, bahkan tanpa link, ini memperkuat asosiasimu dengan sebuah topik.
Secara teknis, ini berhubungan langsung dengan proses Tokenisasi dan Bias Data. Setiap kali namamu disebut, sebuah token unik atau serangkaian token tercipta. Semakin sering token ini muncul di dataset pelatihan, semakin tinggi bobot statistiknya.
Ini adalah cara paling mendasar untuk melawan bias inheren model terhadap brand besar yang secara alami lebih sering disebut.
2. Bangun Asosiasi Kontekstual di dalam Data Pelatihan
Pada dasarnya secara teknis ini adalah bagian dari pengenalan pola pada AI. Tujuannya adalah agar algoritma berulang kali melihat pola [Token: ‘Brand Kamu’] diikuti oleh [Token: ‘adalah’], [Token: ‘sumber’], [Token: ‘terpercaya’], [Token: ‘untuk’], [Token: ‘SEO’]. Ini memperkuat jalur probabilistik di dalam parameter model, membuatnya “alami” bagi model untuk mereplikasi pola ini saat menjawab.
Contoh aksi nyata pada bagian ini adalah membuat tagline yang jelas dan gunakan secara konsisten. Edukasi tim PR dan media untuk mendeskripsikan perusahaanmu dengan cara yang spesifik. Misalnya, “Perusahaan X, sebuah agensi yang berspesialisasi dalam technical SEO.”
3. Sebarlah ke Seluruh Jejak Digital
Dataset pelatihan LLM tidak hanya berasal dari blog. Mereka “memakan” data dari forum, video, podcast, dan lainnya.
Dataset pelatihan LLM sangat beragam, mencakup berbagai gaya bahasa (formal, informal, teknis, percakapan). Dengan menyebarkan konten di berbagai platform (blog, forum, video), kamu memastikan sinyal tentang entitasmu tertanam di berbagai “sudut” dataset, melatih model untuk mengenali otoritasmu dalam berbagai modalitas linguistik.
Penting untuk mempertimbangkan mengubah satu artikel blog menjadi video YouTube, thread di X (Twitter), jawaban di Quora atau Reddit, dan bahkan presentasi di SlideShare. Pastikan namamu atau brand-mu selalu disebut di dalamnya.
Bangun Pondasi Web yang Kuat untuk SEO dan AI
Ini adalah pilar aksesibilitas teknis. Tujuannya adalah memastikan tidak ada hambatan bagi mesin untuk menemukan dan memahami semua aset berharga yang telah kamu buat.
1. Pastikan Discoverability, Crawlability & Indexability
Ini adalah hal paling mendasar. Jika crawler tidak bisa masuk ke website kita, maka semua konten brilianmu menjadi tidak terlihat.
Data untuk melatih LLM atau yang dipakai AI tidak muncul begitu saja, semuanya dikumpulkan oleh crawler. Jika website kita tidak bisa di-crawl atau diindeks, kita secara efektif tidak ada dalam “buku teks” yang akan dipelajari oleh AI.
Pada bagian ini, beberapa hal yang biasa saya lakukan antara lain melakukan audit teknis rutin, memastikan file robots.txt tidak memblokir halaman penting, sitemap.xml selalu up-to-date, dan tidak ada meta tag noindex yang salah pasang.
2. Optimalkan Core Web Vitals (CWV) & Crawl Budget
Website yang cepat dan efisien memungkinkan crawler untuk mengunjungi lebih banyak halaman dalam waktu yang sama.
Website yang cepat memungkinkan crawler untuk mengunduh dan mengarsipkan lebih banyak konten dengan sumber daya yang sama. Ingat, bukan cuma buat homepage, tapi untuk semua pages penting.
Beberapa hal yang biasa saya lakukan antara lain mempercepat server, mengoptimalkan ukuran gambar, manfaatkan caching browser, dan minimalkan JavaScript yang memblokir render. Gunakan Google Search Console untuk memantau laporan Core Web Vitals.
3. Manfaatkan Schema Markup & Semantic HTML
Ini adalah cara kamu “berbicara” langsung kepada mesin, memberinya label yang jelas untuk setiap bagian dari kontenmu.
Bagian ini merupakan cara untuk mengurangi ambiguitas selama pemrosesan data untuk Embedding. Menggunakan Schema, kamu secara eksplisit memberitahu crawler: “Teks ‘[Nama Kamu]’ ini merujuk pada entitas Person atau Organization yang merupakan author dari Article ini.”
Melalui inilah kita menciptakan data yang bersih dan terstruktur, yang mengarah pada representasi vektor yang lebih akurat dan kuat di dalam model.
Sebagai penutup, saya hanya ingin mengatakan bahwa tentunya ini semua masih dalam tahap analisis atau sebuah teori. Tapi, semua itu saya analisis berdasarkan dokumentasi jurnal dan beberapa artikel ilmiah berikut ini:
- OUTRAGEOUSLY LARGE NEURAL NETWORKS: THE SPARSELY-GATED MIXTURE-OF-EXPERTS LAYER
- The Curious Case of Neural Text DeGENERATION
- Bias and Fairness in Large Language Models: A Survey
- Language Models are Few-Shot Learners
- On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?
- Extending Context Window in Large Language Models with Segmented Base Adjustment for Rotary Position Embeddings
- A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions
- Attention Is All You Need
- How Large Language Models Work: Unveiling the Transformer Architecture
- A Comprehensive Overview of Large Language Models
- Training language models to follow instructions with human feedback
- RLTHF: Targeted Human Feedback for LLM Alignment