Seuraava artikkeli auttaa sinua: Python + Streamlitin avulla löytää silmiinpistäviä avainsanamahdollisuuksia
Python on erinomainen työkalu toistuvien tehtävien automatisointiin sekä lisänäkemysten saamiseen tiedoista.
Tässä artikkelissa opit rakentamaan työkalun, jonka avulla voit tarkistaa, mitkä avainsanat ovat lähellä sijaa 1-3, ja neuvoo, voidaanko kyseiset avainsanat sisällyttää sivulle luonnollisesti.
Se on täydellinen Python-aloittelijoille ja ammattilaisille, ja se on loistava johdatus Pythonin käyttöön SEO:ssa.
Jos haluat vain jäädä jumiin, siellä on kätevä Virtaviivainen sovellus saatavilla koodille. Tämä on helppokäyttöinen eikä vaadi koodauskokemusta.
Siellä on myös a Google Colaboratory Sheet jos haluat kurkata koodia. Jos pystyt indeksoimaan verkkosivuston, voit käyttää tätä komentosarjaa!
Tässä on esimerkki siitä, mitä teemme tänään:
Nämä avainsanat löytyvät sivun otsikosta ja H1:stä, mutta ei kopiossa. Näiden avainsanojen lisääminen luonnollisesti olemassa olevaan kopioon olisi helppo tapa lisätä näiden avainsanojen osuvuutta.
Ottamalla vihjeitä hakukoneilta ja sisällyttämällä luonnollisesti kaikki puuttuvat avainsanat, joilla sivusto jo on, lisäämme hakukoneiden luottamusta sijoittaa avainsanat korkeammalle SERP:ssä.
Tämä raportti voidaan luoda manuaalisesti, mutta se on melko aikaa vievää.
Joten aiomme automatisoida prosessin käyttämällä Python SEO -komentosarjaa.
Esikatselu ulostulosta
Tämä on esimerkki siitä, miltä lopullinen tulos näyttää raportin suorittamisen jälkeen:
Lopullinen tulos ottaa kunkin sivun hakumäärän mukaan viisi parasta mahdollisuutta ja asettaa kukin siististi vaakasuoraan arvioidun hakumäärän kanssa.
Se näyttää myös kaikkien sivun silmiinpistävän etäisyyden avainsanojen kokonaishakumäärän sekä ulottuvilla olevien avainsanojen kokonaismäärän.
Hakumäärän mukaan viisi parasta avainsanaa tarkistetaan sitten, löytyykö ne otsikosta, H1:stä vai kopiosta, ja merkitään sitten TOSI tai EPÄTOSI.
Tämä on loistava tapa löytää nopeita voittoja! Lisää vain puuttuva avainsana luonnollisesti sivun kopioon, otsikkoon tai H1:een.
Päästä alkuun
Kokoonpano on melko suoraviivainen. Tarvitsemme vain sivuston indeksoinnin (mieluiten mukautetun poiminnan avulla tarkastettavalle kopiolle) ja viedyn tiedoston kaikista sivuston avainsanoista.
Tämä viesti opastaa sinut asennuksen, koodin ja linkin kautta Google Colaboratory -taulukkoon, jos haluat vain jäädä koodaamatta sitä itse.
Aloitaksesi tarvitset:
Olemme nimenneet tämän etäisyysraportiksi, koska se merkitsee avainsanat, jotka ovat helposti törmäysetäisyydellä.
(Olemme määrittäneet iskevä etäisyys avainsanoiksi, jotka sijoittuvat 4-20, mutta olemme tehneet tästä konfiguroitavan vaihtoehdon siltä varalta, että haluat määrittää omat parametrisi.)
Striking Distance SEO -raportti: Aloitus
1. Indeksoi kohdesivusto
- Aseta mukautettu poiminta sivukopiolle (valinnainen, mutta suositeltavaa).
- Suodata sivutussivut indeksoinnista.
2. Vie kaikki avainsanat Sivuston sijoitukset suosikkipalveluntarjoajasi käyttöä varten
- Suodata avainsanat, jotka käynnistyvät sivustolinkkinä.
- Poista avainsanat, jotka käynnistyvät kuvana.
- Suodata tuotemerkkiavainsanat.
- Käytä molempia vientiä luodaksesi avainsanasta käytännöllisen iskevä etäisyysraportin ja indeksoi tiedot Pythonilla.
Sivuston indeksointi
Olen valinnut Screaming Frogin käytön alkuindeksointiin. Mikä tahansa indeksointirobotti toimii, kunhan CSV-vienti käyttää samoja sarakkeiden nimiä tai ne nimetään uudelleen vastaamaan niitä.
Skripti odottaa löytävänsä seuraavat sarakkeet indeksoinnin CSV-viennissä:
“Osoite”, “Otsikko 1”, “H1-1”, “Kopio 1”, “Indeksoitavuus”
Indeksointiasetukset
Ensimmäinen asia, joka sinun on tehtävä, on siirtyä Screaming Frogin pääkokoonpanoasetuksiin:
Määritykset > Hämähäkki > Indeksointi
Tärkeimmät käytettävät asetukset ovat:
ja asetus.
(Skripti toimii kaiken muun valitun kanssa, mutta indeksoinnin suorittaminen kestää kauemmin!)
Seuraavaksi on vuorossa Uutto -välilehti.
Kokoonpano > Hämähäkki > Purku
Vähintäänkin meidän on purettava sivun otsikko H1 ja laskettava, onko sivu indeksoitavissa alla olevan kuvan mukaisesti.
Indeksoitavuus on hyödyllistä, koska sen avulla skripti voi helposti tunnistaa, mitkä URL-osoitteet pudotetaan yhdellä kertaa, jättäen vain avainsanat, jotka ovat kelvollisia sijoittumaan SERP:issä.
Jos komentosarja ei löydä indeksoitavuussaraketta, se toimii edelleen normaalisti, mutta ei tee eroa sivujen välillä, jotka voivat sijoittua ja jotka eivät voi sijoittua.
Mukautetun poimijan asettaminen sivujen kopiointia varten
Jotta voimme tarkistaa, löytyykö avainsana sivukopiosta, meidän on asetettava mukautettu poiminta Screaming Frogissa.
Kokoonpano > Mukautettu > Poiminta
Nimeä poiminta “Kopioi” alla olevan kuvan mukaisesti.
Tärkeä: Skripti odottaa purkajan nimen “Kopioi” kuten yllä, joten tarkista vielä kerran!
Lopuksi varmista Pura teksti on valittu viemään kopio tekstinä HTML:n sijaan.
Verkossa on monia oppaita räätälöityjen pursotinten käyttöön, jos tarvitset apua sellaisen määrittämisessä, joten en käsittele sitä uudelleen tässä.
Kun purku on asetettu, on aika indeksoida sivusto ja viedä HTML-tiedosto CSV-muodossa.
CSV-tiedoston vienti
CSV-tiedoston vieminen on yhtä helppoa kuin vaihtaa Sisäinen-kohdan alla näkyvä pudotusvalikko ja painaa Vie-painiketta.
Sisäinen > HTML > Vie
Napsautuksen jälkeen ViedäOn tärkeää varmistaa, että tyypiksi on asetettu CSV-muoto.
Vientinäytön pitäisi näyttää seuraavalta:
Vinkki 1: Suodata sivutussivut pois
Suosittelen sivutussivujen suodattamista indeksoinnista joko valitsemalla Respect Seuraava/Edellinen alla Pitkälle kehittynyt asetukset (tai vain poistamalla ne CSV-tiedostosta, jos haluat).
Vinkki 2: Tallenna indeksointiasetukset
Kun olet määrittänyt indeksoinnin, kannattaa vain tallentaa indeksointiasetukset (joka muistaa myös mukautetun purkamisen).
Tämä säästää paljon aikaa, jos haluat käyttää komentosarjaa uudelleen tulevaisuudessa.
Tiedosto > Asetukset > Tallenna nimellä
Avainsanojen vienti
Kun meillä on indeksointitiedosto, seuraava vaihe on ladata suosikkiavainsanatutkimustyökalusi ja viedä kaikki sivuston avainsanat.
Tavoitteena on viedä kaikki sivuston avainsanat, suodattamalla pois brändiavainsanat ja kaikki, jotka käynnistyvät sivustolinkkinä tai kuvana.
Tässä esimerkissä käytän Ahrefsin maksutonta avainsanaraporttia, mutta se toimii yhtä hyvin Semrushin kanssa, jos se on haluamasi työkalu.
Kirjoita Ahrefsissä verkkotunnus, johon haluat kirjautua Sivuston Explorer ja valitse Orgaaniset avainsanat.
Sivustonhallinta > Maksuttomat avainsanat
Tämä tuo esiin kaikki avainsanat, joilla sivusto on sijoittunut.
Sivustolinkkien ja kuvalinkkien suodattaminen
Seuraava vaihe on suodattaa pois kaikki sivustolinkkinä tai kuvapaketina käynnistyvät avainsanat.
Sivustolinkit on suodatettava pois siksi, että niillä ei ole vaikutusta pää-URL-osoitteen sijoitukseen. Tämä johtuu siitä, että vain pääsivu sijoittuu teknisesti avainsanalle, ei sen alla näkyville sivustolinkkien URL-osoitteille.
Sivustolinkkien suodattaminen varmistaa, että optimoimme oikean sivun.
Näin se tehdään Ahrefsissa.
Lopuksi suosittelen suodattamaan pois kaikki brändiavainsanat. Voit tehdä tämän suodattamalla CSV-tulosteen suoraan tai esisuodattamalla valitsemassasi avainsanatyökalussa ennen vientiä.
Lopuksi, kun viet, muista valita Täysi vienti ja UTF-8 alla olevan kuvan mukaisesti.
Oletusarvoisesti komentosarja toimii Ahrefs- (v1/v2) ja Semrush-avainsanojen viennin kanssa. Se voi toimia minkä tahansa avainsanan CSV-tiedoston kanssa, kunhan komentosarjan odottamat sarakkeiden nimet ovat läsnä.
Käsittely
Seuraavat ohjeet koskevat Google Colaboratory -taulukon suorittamista koodin suorittamiseksi.
Nyt on olemassa yksinkertaisempi vaihtoehto niille, jotka pitävät sitä parempana muodossa a Virtaviivainen sovellus. Lataa indeksointi- ja avainsanatiedosto noudattamalla annettuja ohjeita.
Nyt kun meillä on vietymme tiedostot, sinun ei tarvitse tehdä muuta kuin ladata ne tiedostoon Google Colaboratory -lomake käsittelyä varten.
Valitse Suoritusaika > Suorita kaikki ylhäältä siirtymisestä suorittaaksesi kaikki taulukon solut.
Skripti kehottaa lataamaan ensin avainsanan CSV Ahrefsista tai Semrushista ja sen jälkeen indeksointitiedoston.
Se siitä! Skripti lataa automaattisesti toimivan CSV-tiedoston, jonka avulla voit optimoida sivustosi.
Kun olet perehtynyt koko prosessiin, käsikirjoituksen käyttäminen on todella yksinkertaista.
Koodin erittely ja selitys
Jos opettelet Python for SEO:ta ja olet kiinnostunut siitä, mitä koodi tekee raportin tuottamiseksi, pysy koodin esittelyssä!
Asenna The Libraries
Asennetaan pandat saadaksesi pallon pyörimään.
!pip install pandat
Tuo moduulit
Seuraavaksi meidän on tuotava tarvittavat moduulit.
tuo pandat pd-muodossa pandasta tuoda DataFrame, sarja kirjoittamalla import Union google.colab-tuontitiedostoista
Aseta muuttujat
Nyt on aika asettaa muuttujat.
Käsikirjoitus pitää kaikkia avainsanoja paikkojen 4 ja 20 välillä silmiinpistävän etäisyyden sisällä.
Muuttujien muuttaminen tässä antaa sinun määrittää oman alueensi, jos haluat. Kannattaa kokeilla asetuksia saadaksesi parhaan mahdollisen tulosteen tarpeisiisi.
# aseta kaikki muuttujat tähän min_volume = 10 # aseta minimihakumäärä min_sijainti = 4 # aseta minimisijainti / oletus = 4 max_position = 20 # aseta enimmäissijainti / oletus = 20 drop_all_true = True # Jos kaikki tarkistukset (h1/title/ kopioi) ovat tosia, poista suositus (Ei mitään) pagination_filters = “filterby|page|p=” # suodatinkuvioita, joita käytetään sivuttujen sivujen havaitsemiseen ja pudotukseen
Lataa avainsanojen vienti CSV-tiedosto
Seuraava vaihe on lukea avainsanaluettelo CSV-tiedostosta.
Se on määritetty hyväksymään Ahrefs-raportti (V1 ja V2) sekä Semrush-vienti.
Tämä koodi lukee CSV-tiedostosta Pandas DataFrame -kehykseen.
lataus = tiedostot.lataus() lataus = lista(lataus.avaimet())[0]
df_keywords = pd.read_csv( (lataus), error_bad_lines=False, low_memory=False, encoding=”utf8″, dtype={ “URL”: “str”, “Keyword”: “str”, “Volume”: “str” , “Sijainti”: int, “Nykyinen URL”: “str”, “Hakumäärä”: int, }, ) print(“Ladattu avainsanan CSV-tiedosto onnistui!”)
Jos kaikki meni suunnitelmien mukaan, näet avainsanan CSV-viennillä luodun DataFramen esikatselun.
Lataa Crawl Export CSV-tiedosto
Kun avainsanat on tuotu, on aika ladata indeksointitiedosto.
Tämä melko yksinkertainen koodinpätkä lukee indeksoinnin jossain virheenkäsittelyvaihtoehdolla ja luo Pandas DataFramen nimeltä df_crawl.
lataus = tiedostot.lataus() lataus = lista(lataus.avaimet())[0]
df_crawl = pd.read_csv( (lataus), error_bad_lines=False, low_memory=False, encoding=”utf8″, dtype=”str”, )
print(“Ladattu indeksointitietokehys onnistui!”)
Kun CSV-tiedosto on ladattu, näet DataFramen esikatselun.
Puhdista ja standardoi avainsanatiedot
Seuraava vaihe on nimetä sarakkeiden nimet uudelleen yleisimpien tiedostovientityyppien standardoinnin varmistamiseksi.
Pohjimmiltaan saamme avainsanan DataFrame hyvään tilaan ja suodatamme käyttämällä muuttujien määrittämiä raja-arvoja.
df_keywords.rename( columns={ “Nykyinen sijainti”: “Sijainti”, “Nykyinen URL”: “URL”, “Hakumäärä”: “Volume”, }, inplace=True, ) # säilytä avainsanasta vain seuraavat sarakkeet dataframe cols = “URL”, “Avainsana”, “Volume”, “Sijainti” df_keywords = df_keywords.reindex(columns=cols) yritä: # puhdista tiedot. (ahrefs-avainsanojen viennin v1 yhdistää merkkijonot ja ints:t volyymisarakkeessa) df_keywords[“Volume”] = df_avainsanat[“Volume”].str.replace(“0-10”, “0”) paitsi AttributeError: pass # puhdista avainsanatiedot df_keywords = df_keywords[df_keywords[“URL”].notna()]# poista kaikki puuttuvat arvot df_keywords = df_keywords[df_keywords[“Volume”].notna()]# poista puuttuvat arvot df_keywords = df_keywords.astype({“Volume”: int}) # muuta tietotyypiksi int df_keywords = df_keywords.sort_values(by=”Volume”, nouseva=False) # lajittele korkeimman mukaan vol pitääksesi parhaan mahdollisuuden # luo uusi tietokehys yhdistääksesi hakumäärät takaisin myöhemmin df_keyword_vol = df_keywords[[“Keyword”, “Volume”]]# pudota riviä, jos vähimmäishakumäärä ei vastaa määritettyjä ehtoja df_keywords.loc[df_keywords[“Volume”] < min_volume, "Volume_Too_Low"]= "pudota" df_keywords = df_keywords[~df_keywords["Volume_Too_Low"].isin(["drop"])]# pudota riviä, jos vähimmäishaun sijainti ei vastaa määritettyjä ehtoja df_keywords.loc[df_keywords["Position"] <= min_sijainti, "Position_Too_High"]= "pudota" df_keywords = df_keywords[~df_keywords["Position_Too_High"].isin(["drop"])]# pudota riviä, jos suurin hakusijainti ei vastaa määritettyjä ehtoja df_keywords.loc[df_keywords["Position"] >= max_position, “Position_Too_Low”]= “pudotus”
df_keywords = df_keywords[~df_keywords[“Position_Too_Low”].isin([“drop”])]
Puhdista ja standardoi indeksointitiedot
Seuraavaksi meidän on puhdistettava ja standardoitava indeksointitiedot.
Käytämme uudelleenindeksointia säilyttääksemme vain sarakkeet “Osoite”, “Indeksoitavuus”, “Sivun otsikko”, “H1-1” ja “Kopioi 1” ja hylkäämme loput.
Käytämme kätevää Indeksoitavuus-saraketta säilyttääksemme vain indeksoitavissa olevat rivit. Tämä poistaa ensisijaiset URL-osoitteet, uudelleenohjaukset ja niin edelleen. Suosittelen tämän vaihtoehdon ottamista käyttöön indeksoinnissa.
Lopuksi standardoimme sarakkeiden nimet, jotta niiden kanssa on hieman mukavampaa käsitellä.
# säilytä vain seuraavat sarakkeet indeksoinnin tietokehyksestä. Cols = “Osoite”, “Indeksoitavuus”, “Otsikko 1”, “H1-1”, “Kopio 1” df_crawl = df_crawl.reindex(columns=cols) # pudota ei-indeksoitava rivit df_crawl = df_crawl[~df_crawl[“Indexability”].isin([“Non-Indexable”])]# standardoi sarakkeiden nimet df_crawl.rename(columns={“Address”: “URL”, “Title 1”: “Title”, “H1-1”: “H1”, “Copy 1”: “Copy”} , paikalla = tosi)
df_crawl.head()
Ryhmittele avainsanat
Kun lähestymme lopullista tulosta, on välttämätöntä ryhmitellä avainsanamme yhteen laskeaksemme kunkin sivun kokonaismahdollisuuden.
Tässä lasketaan, kuinka monta avainsanaa on silmiinpistävän etäisyydellä kullakin sivulla, sekä yhdistetyn hakumäärän.
# ryhmittelee URL-osoitteet (poista dupes ja yhdistää tilastot) # tekee kopion avainsanojen tietokehyksestä ryhmittelyä varten – tämä varmistaa, että tilastot voidaan yhdistää myöhemmin takaisin OG:sta df_keywords_group = df_keywords.copy() df_keywords_group[“KWs in Striking Dist.”] = 1 # käytetään avainsanojen laskemiseen osumaetäisyydellä df_keywords_group = ( df_keywords_group.groupby(“URL”) .agg({“Volume”: “sum”, “KWs in Striking Dist.”: “count”}) . reset_index() )
df_keywords_group.head()
Kun olet valmis, näet DataFramen esikatselun.
Näytä avainsanat vierekkäisillä riveillä
Käytämme ryhmiteltyjä tietoja lopullisen tuotoksen perustana. Käytämme Pandas.unstackia DataFramen muokkaamiseen näyttämään avainsanat GrepWords-viennin tyyliin.
# luo uusi df, yhdistä yhdistetyt tiedot alkuperäisiin tietoihin. näytä vierekkäisillä riveillä ala grepwords df_merged_all_kws = df_keywords_group.merge( df_keywords.groupby(“URL”)[“Keyword”]
.apply(lambda x: x.reset_index(drop=True)) .unstack() .reset_index() ) # lajitella suurimman mahdollisuuden mukaan df_merged_all_kws = df_merged_all_kws.sort_values( by=”KWs in Striking Dist.”, se) nouseva #Fal indeksoi sarakkeet uudelleen säilyttääksesi vain viisi parasta avainsanaa cols = “URL”, “Volume”, “KWs in Striking Dist.”, 0, 1, 2, 3, 4 df_merged_all_kws = df_merged_all_kws.reindex(columns=cols) # luo liitto ja nimeä sarakkeet uudelleen df_striking: Union[Series, DataFrame, None] = df_merged_all_kws.rename( columns={ “Äänenvoimakkuus”: “Ilmettävä osa”, 0: “KW1”, 1: “KW2”, 2: “KW3”, 3: “KW4”, 4: “KW5″, } ) # yhdistää iskevä etäisyys df:n indeksointi-df:ään yhdistääkseen otsikon, h1:n ja luokan kuvauksen df_striking = pd.merge(df_striking, df_crawl, on=”URL”, how=”inner”)
Aseta lopullinen sarakkeiden järjestys ja lisää paikkamerkkisarakkeet
Lopuksi asetamme lopullisen sarakejärjestyksen ja yhdistämme alkuperäisiin avainsanatietoihin.
Lajiteltavaa ja luotavaa on paljon sarakkeita!
# aseta lopullinen sarakejärjestys ja yhdistä avainsanatiedot sarakkeissa = [
“URL”,
“Title”,
“H1”,
“Copy”,
“Striking Dist. Vol”,
“KWs in Striking Dist.”,
“KW1”,
“KW1 Vol”,
“KW1 in Title”,
“KW1 in H1”,
“KW1 in Copy”,
“KW2”,
“KW2 Vol”,
“KW2 in Title”,
“KW2 in H1”,
“KW2 in Copy”,
“KW3”,
“KW3 Vol”,
“KW3 in Title”,
“KW3 in H1”,
“KW3 in Copy”,
“KW4”,
“KW4 Vol”,
“KW4 in Title”,
“KW4 in H1”,
“KW4 in Copy”,
“KW5”,
“KW5 Vol”,
“KW5 in Title”,
“KW5 in H1”,
“KW5 in Copy”,
]
# indeksoi sarakkeet uudelleen sijoittaaksesi ne loogiseen järjestykseen + lisää uusia tyhjiä sarakkeita kw-tarkistuksia varten. df_striking = df_striking.reindex(sarakkeet=sarakkeet)
Yhdistä kunkin sarakkeen avainsanatiedot
Tämä koodi yhdistää avainsanamäärän tiedot takaisin DataFrameen. Se vastaa enemmän tai vähemmän Excelin VLOOKUP-funktiota.
# yhdistä avainsanatiedoissa kunkin avainsanasarakkeen (KW1 – KW5) df_striking = pd.merge(df_striking, df_keyword_vol, left_on=”KW1″, right_on=”Keyword”, how=”left”) df_striking[‘KW1 Vol’] = df_striking[‘Volume’]
df_striking.drop([‘Keyword’, ‘Volume’]axis=1, inplace=True) df_striking = pd.merge(df_striking, df_keyword_vol, left_on=”KW2″, right_on=”Keyword”, how=”left”) df_striking[‘KW2 Vol’] = df_striking[‘Volume’]
df_striking.drop([‘Keyword’, ‘Volume’]axis=1, inplace=True) df_striking = pd.merge(df_striking, df_keyword_vol, left_on=”KW3″, right_on=”Keyword”, how=”left”) df_striking[‘KW3 Vol’] = df_striking[‘Volume’]
df_striking.drop([‘Keyword’, ‘Volume’]axis=1, inplace=True) df_striking = pd.merge(df_striking, df_keyword_vol, left_on=”KW4″, right_on=”Keyword”, how=”left”) df_striking[‘KW4 Vol’] = df_striking[‘Volume’]
df_striking.drop([‘Keyword’, ‘Volume’]axis=1, inplace=True) df_striking = pd.merge(df_striking, df_keyword_vol, left_on=”KW5″, right_on=”Keyword”, how=”left”) df_striking[‘KW5 Vol’] = df_striking[‘Volume’]
df_striking.drop([‘Keyword’, ‘Volume’]akseli = 1, paikka = tosi)
Puhdista tiedot lisää
Tiedot vaativat lisäpuhdistuksen tyhjien arvojen (NaN) täyttämiseksi tyhjinä merkkijonoina. Tämä parantaa lopputuloksen luettavuutta luomalla tyhjiä soluja NaN-merkkijonoarvoilla täytettyjen solujen sijaan.
Seuraavaksi muunnamme sarakkeet pieniksi kirjaimille, jotta ne täsmäävät, kun tarkistetaan, onko kohdeavainsana esillä tietyssä sarakkeessa.
# korvaa nan-arvot tyhjillä merkkijonoilla df_striking = df_striking.fillna(“”) # pudota otsikko, h1 ja luokan kuvaus pieniksi kirjaimille, jotta kw:t voidaan yhdistää niihin df_striking[“Title”] = df_striking[“Title”].str.lower() df_striking[“H1”] = df_striking[“H1”].str.lower() df_striking[“Copy”] = df_striking[“Copy”].str.lower()
Tarkista, näkyykö avainsana otsikossa/H1/kopiossa ja palauta oikea vai taru
Tämä koodi tarkistaa, löytyykö kohdeavainsana sivun otsikosta/H1:stä tai kopiosta.
Se merkitsee tosi tai epätosi sen mukaan, löytyikö avainsana sivun elementeistä.
df_striking[“KW1 in Title”] = df_striking.apply(lambda rivi: rivi[“KW1”] rivissä[“Title”]akseli=1) df_striking[“KW1 in H1”] = df_striking.apply(lambda rivi: rivi[“KW1”] rivissä[“H1”]akseli=1) df_striking[“KW1 in Copy”] = df_striking.apply(lambda rivi: rivi[“KW1”] rivissä[“Copy”]akseli=1) df_striking[“KW2 in Title”] = df_striking.apply(lambda rivi: rivi[“KW2”] rivissä[“Title”]akseli=1) df_striking[“KW2 in H1”] = df_striking.apply(lambda rivi: rivi[“KW2”] rivissä[“H1”]akseli=1) df_striking[“KW2 in Copy”] = df_striking.apply(lambda rivi: rivi[“KW2”] rivissä[“Copy”]akseli=1) df_striking[“KW3 in Title”] = df_striking.apply(lambda rivi: rivi[“KW3”] rivissä[“Title”]akseli=1) df_striking[“KW3 in H1”] = df_striking.apply(lambda rivi: rivi[“KW3”] rivissä[“H1”]akseli=1) df_striking[“KW3 in Copy”] = df_striking.apply(lambda rivi: rivi[“KW3”] rivissä[“Copy”]akseli=1) df_striking[“KW4 in Title”] = df_striking.apply(lambda rivi: rivi[“KW4”] rivissä[“Title”]akseli=1) df_striking[“KW4 in H1”] = df_striking.apply(lambda rivi: rivi[“KW4”] rivissä[“H1”]akseli=1) df_striking[“KW4 in Copy”] = df_striking.apply(lambda rivi: rivi[“KW4”] rivissä[“Copy”]akseli=1) df_striking[“KW5 in Title”] = df_striking.apply(lambda rivi: rivi[“KW5”] rivissä[“Title”]akseli=1) df_striking[“KW5 in H1”] = df_striking.apply(lambda rivi: rivi[“KW5”] rivissä[“H1”]akseli=1) df_striking[“KW5 in Copy”] = df_striking.apply(lambda rivi: rivi[“KW5”] rivissä[“Copy”]akseli = 1)
Poista oikeat/epätosi arvot, jos avainsanaa ei ole
Tämä poistaa tosi/epätosi arvot, kun vierekkäin ei ole avainsanaa.
# poista tosi/epätosi arvot, jos avainsanaa df_striking.loc ei ole[df_striking[“KW1”] == “”, [“KW1 in Title”, “KW1 in H1”, “KW1 in Copy”]]= “” df_striking.loc[df_striking[“KW2”] == “”, [“KW2 in Title”, “KW2 in H1”, “KW2 in Copy”]]= “” df_striking.loc[df_striking[“KW3”] == “”, [“KW3 in Title”, “KW3 in H1”, “KW3 in Copy”]]= “” df_striking.loc[df_striking[“KW4”] == “”, [“KW4 in Title”, “KW4 in H1”, “KW4 in Copy”]]= “” df_striking.loc[df_striking[“KW5”] == “”, [“KW5 in Title”, “KW5 in H1”, “KW5 in Copy”]]= “” df_striking.head()
Pudota rivit, jos kaikki arvot == tosi
Tämä konfiguroitava vaihtoehto on todella hyödyllinen lopputuloksen vaatiman laadunvarmistusajan lyhentämiseksi pudottamalla avainsanan mahdollisuus lopullisesta tuotosta, jos se löytyy kaikista kolmesta sarakkeesta.
def true_dropper(sara1, sara2, sarake3): drop = df_striking.drop( df_striking[
(df_striking[col1] == Totta) & (df_striking[col2] == Totta) & (df_striking[col3] == True) ].index ) palauttaa drop if drop_all_true == True: df_striking = true_dropper(“KW1 otsikossa”, “KW1 H1:ssä”, “KW1 kopiossa”) df_striking = true_dropper(“KW2 otsikossa”, “KW2″ in H1”, “KW2 in Copy”) df_striking = true_dropper(“KW3 in Title”, “KW3 in H1”, “KW3 in Copy”) df_striking = true_dropper(“KW4 in Title”, “KW4 in H1”, “KW4″ kopiossa”) df_striking = true_dropper(“KW5 otsikossa”, “KW5 in H1”, “KW5 in kopio”)
Lataa CSV-tiedosto
Viimeinen vaihe on ladata CSV-tiedosto ja aloittaa optimointiprosessi.
df_striking.to_csv(‘Avainsanat iskevässä etäisyydessä.csv’, index=False) files.download(“Avainsanat iskevässä etäisyydessä.csv”)
Johtopäätös
Jos etsit nopeita voittoja mille tahansa verkkosivustolle, iskevän etäisyyden raportti on todella helppo tapa löytää ne.
Älä anna askelten lukumäärän hämätä sinua. Se ei ole niin monimutkaista kuin miltä näyttää. Se on yhtä helppoa kuin lataat indeksoinnin ja avainsanojen viennin toimitettuun Google Colab -taulukkoon tai käyttämällä Streamlit-sovellusta.
Tulokset ovat ehdottomasti sen arvoisia!
Lisää resursseja: