¿Cómo extraer datos web de Google usando Python?

Requisitos previos: Requests de Python , Implementación de Web Scraping en Python con BeautifulSoup

El raspado web es una técnica para obtener datos de sitios web. Mientras navega por la web, muchos sitios web no permiten que el usuario guarde datos para uso personal. Una forma es copiar y pegar manualmente los datos, lo cual es tedioso y requiere mucho tiempo. Web Scraping es la automatización del proceso de extracción de datos de sitios web.

En este artículo, eliminaremos la actualización del clima del resultado de búsqueda de Google.

Módulos Requeridos

  • BeautifulSoup: este módulo se utiliza para iterar, buscar y modificar el árbol de análisis sobre el analizador HTML o XML. Para descargarlo, escriba el siguiente comando en la terminal.
    pip install beautifulsoup4
  • Requests: la biblioteca de requests es una de las partes integrales de Python para realizar requests HTTP a una URL específica. Para descargarlo, escriba el siguiente comando en la terminal.
    pip install requests

A continuación se muestra la implementación.

import requests
from bs4 import BeautifulSoup
   
# Enter the City Name
city = input("Enter the City Name: ")
search = "Weather in {}".format(city)
  
# URL 
url = f"https://www.google.com / search?&q ={search}" 
   
# Sending HTTP request
req = requests.get(url)
  
# Pulling HTTP data from internet
sor = BeautifulSoup(req.text, "html.parser") 
  
# Finding temperature in Celsius
temp = sor.find("div", class_='BNeawe').text
  
print(temp)

Producción :

python-weather-data-web-scraping

Publicación traducida automáticamente

Artículo escrito por akash_kumar_singh y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *