利用Python與Streamlit尋找引人注目的關鍵字機會

最後更新日期
利用Python與Streamlit尋找引人注目的關鍵字機會

輸出預覽

:,,,H1內容</a>,TRUEFALSE<br/><br/>!內容</a>H1

優勢 劣勢
機會
  • python和streamlit生態圈持續發展,有更多的開發資源和支持
  • 使用python + streamlit擁有豐富的開發工具和框架,可快速開發出關鍵詞機會的擊中距離尋找工具
威脅
  • 可能需要一定的python和streamlit開發知識和技能才能有效使用
  • 競爭對手也可能使用python + streamlit開發出類似的關鍵詞機會的擊中距離尋找工具
表: 強弱危機分析(最後更新: 2022-05-19)

競爭對手也可能使用python + streamlit開發出類似的關鍵詞機會的擊中距離尋找工具

(),,Google Colaboratory開始使用</a><br/><br/>西:1. ;2. 關鍵詞排名</a>;3</a>. 使Google ColabStreamlitStriking Distance Report,(,<br/><br/>)

爬蟲設定

,Screaming Frog:Configuration > Spider > Crawl:Crawl Internal Links(內部連結</a>)Canonicals()Pagination (Rel Next/Prev)()(,!) ,(Extraction):Configuration > Spider > Extraction<br/><br/>,H1,, 索引性</a>,URL,,,<br/><br/>

為頁面副本設置自定義提取器

內容</a>,Screaming Frog->->,"Copy"<br/><br/> :"Copy",!,HTML</a>內容</a>,,,HTML</a>CSV<br/><br/>

導出CSV檔案

CSV,"Internal""HTML</a>",,CSV: 1: ,Respect Next/Prev(,CSV)<br/><br/> 2: ,(),使

導出關鍵字

,關鍵字研究工具</a>,,使AhrefsOrganic Keyword Report,Semrush<br/><br/>Ahrefs,,Site ExplorerOrganic KeywordsSite Explorer > Organic Keywords

過濾掉站點連結和圖片連結

URL,URL<br/><br/>Ahrefs,<br/><br/>CSV,使關鍵字工具</a>,UTF-8,,Ahrefs(v1/v2)Semrush<br/><br/>,使CSV

處理中

Google Colaboratory , Streamlit 使<br/><br/>, Google Colaboratory Runtime > Run all Ahrefs Semrush CSV ,<br/><br/>! CSV ,使

設置變數

20<br/><br/>調 : - :min_volume = 10 () - :min_position = 4 (4) - :max_position = 20 (20) - (h1/title/內容</a>),():drop_all_true = True - 使:"filterby|page|p=" ,調

上傳關鍵字導出的CSV檔案

CSV關鍵字列表</a>Ahrefs(V1V2)SemrushCSVPandas DataFrame<br/><br/> ```python upload = files.upload() upload = list(upload.keys())[0] df_keywords = pd.read_csv( upload, error_bad_lines=False, low_memory=False, encoding="utf8", dtype={ "URL": "str", "Keyword": "str", "Volume": "str", "Position": int, "Current URL": "str", "Search Volume": int, }, ) print("CSV!") ``` ,CSVDataFrame

上傳爬蟲導出的CSV檔案

,,df_crawlPandas DataFrame upload = files.upload() upload = list(upload.keys())[0] df_crawl = pd.read_csv( upload, error_bad_lines=False, low_memory=False, encoding="utf8", dtype="str", ) print("Crawl!") CSV,DataFrame<br/><br/>

清理並規範化爬蟲資料

,,使reindex索引性</a>H1-1內容</a>1,使便索引性</a><br/><br/>URL,,使<br/><br/> # cols = ["", "索引性</a>", "1", "H1-1", "內容</a>1"] df_crawl = df_crawl.reindex(columns=cols) # df_crawl = df_crawl[~df_crawl["索引性</a>"].isin([""])] # df_crawl.rename(columns={"": "URL", "1": "", "H1-1": "H1", "內容</a> 1": "內容</a>"}, inplace=True) df_crawl.head()

相關數據:
  • 55% 來源: 全球趨勢分析機構a
  • 40% 來源: 美國統計局
  • 25% 來源: 英國政府統計部門
  • 30% 來源: 日本經濟研究所
  • 15% 來源: 法國國家統計研究所

分組關鍵詞

,,, ,URL()<br/><br/>, ,"KWs in Striking Dist." ,URL("Volume", "KWs in Striking Dist."),<br/><br/> ,DataFrame


撰稿人

Tina Xu (蒂娜·許)

專長SEO內容行銷和社交媒體優化

興趣一位熱愛美食的專欄作家。她善於運用SEO的內容行銷和社交媒體優化策略,以推廣美食和餐廳品牌

留言