Olin hiljuti (umbes pool aastat) oma kliendi jaoks REST API-l põhinevaid veebilehti loonud. Enamasti kasutatakse:

  • node.js,
  • express.js,
  • reageerima,
  • mongodb,
  • jne.,

kuid äkki otsustas klient, et ta ei soovi enam REST API-l põhinevaid veebisaite, sest kõik need pole nii palju veebiotsimootorite jaoks optimeeritud ja ta ei leia neid nii lihtsalt kui vanu "traditsiooniliselt loodud" veebisaite. Varem kasutasin Zend Frameworkit või Word-pressit.

RESTFuli rakendused on tänapäeval nii populaarsed, et arvan, et pean midagi valesti tegema.

Minu rakenduste arhitektuur näeb välja selline:

  1. Kasutaja laadib veebirakenduse brauserisse.
  2. Kasutaja taotlused üksuste loendi avamiseks - oletame näiteks, et raamatute loend.
  3. Esiosa laadib andmed REST API abil (võttes JSON-i) ja kuvab andmed konteineris.
  4. Kasutaja klikib üksusel / raamatul.
  5. Esiosa võtab JSON-i andmed REST API-st ja kuvab need konteineris.

Nii et kasutajaliides ja REST API tagumine ots on täiesti eraldi asjad, mis elavad oma elu. Kas see on õige lähenemine?

Märkasin, et näiteks ReactJS-is loodud rakendusel pole veebibrauseri allikas peaaegu midagi, kogu koodi genereerimine on manustatud js-skripti. Kas sellel võib olla mõju SEO-le? Näidiskoodi all.

<?php <!DOCTYPE html> <html lang='en'> <head> <meta charset='utf-8'> <meta name='viewport' content='width=device-width, initial-scale=1, shrink-to-fit=no'> <meta name='theme-color' content='#000000'>  <link rel='manifest' href='/manifest.json'> <link rel='shortcut icon' href='/favicon.ico'>  <title>Reageeri rakendusele</title>  <body>  
<script type='text/javascript' src='/static/js/bundle.js'></script></body> ?> var13 ->

Kas on võimalik kuidagi muuta REST API-põhiseid veebi SEO jaoks paremaks? Või on lõpuks olemas häid tavasid, mida peaksin järgima, et muuta ülejäänud rakendused SEO-sõbralikuks?

  • 1 Kuigi te pole seda maininud, tean, mida te silmas peate, see küsimus on konkreetsem serveripoolsete js-i raamistike kui üldise api tarbimise kohta. Vaadake seda npmjs.com/package/express-seo
  • Võiksite uurida serveripoolse renderdamise olemasolu. Probleem on selles, et (paljudel?) Juhtudel on tühi leht kõik, mida otsingumootor näeb. Nii et ühe lehekülje laadimine, tagastades serveripoolse renderdamise, sobib otsingumootoritele ideaalselt. reagejs.org/docs/react-dom-server.html

Veebisaidi taustaprogramm ei oma SEO-d. Indekseerijad külastavad veebisaite nagu kõik kasutajad. Ärge muretsege serveritarkvara, raamistike jms pärast. Keskenduge kasutajakogemusele, mis on tegelikult oluline.

  • 1 Kuigi op pole seda maininud, ei paku serveripoolne js staatilist sisu, mis loob sisu külastuse kohta js abil ja paljud robotid ei saa seda esiotsa skriptimise olemuse tõttu roomata.
  • @Abu See pole üldistus, mida teha saab, minu veebisait on serveripoolne JS (Node.js) ja loob staatilist sisu. Lisaks on Google oma AJAX-i indekseerimisskeemi iganenud, kuna "Google peaks suutma teie AJAX-i veebisaidi üles leida ja lehed kenaks muuta".
  • 1 Jah, võib-olla saab Google siiski palju muid roboteid, mis seda ei suuda.

Hmm Apil pole SEO-ga midagi pistmist. Api kasutatakse andmete hankimiseks serverist ja kuvamiseks veebisaidil.

Ainus asi, mis võib SEO-le mingit (väikest) mõju avaldada, võib olla pikem saidi laadimisaeg (oodates api vastust) - kuid mitte kõigil juhtudel (sõltub sellest, kuidas laadite andmeid API-st (sünkroonne / asünkroonne).

Kuid põhiliselt pole api-l seo-ga midagi pistmist

none: Charles Robertson | none