Scraper de los 100 libros más vendidos de la semana en Cúspide Libros
Explorar docs »
Reportar Bug
·
Request Feature
Tabla de contenido
Este proyecto realiza web scraping en la página web de Cúspide Libros para obtener el listado de los 100 libros más vendidos de la semana. Los datos recopilados incluyen el título del libro, la URL del libro, el precio en pesos, el precio en dólares y el precio en dólares considerando la cotización del dólar blue de Argentina. Los datos se almacenan en una base de datos MySQL. Este proyecto se desarrolló como parte del Proyecto Integrador correspondiente al Módulo 3 del bootcamp en Data Science de SoyHenry.
Para ejecutar este proyecto localmente sigue estos pasos para configurarlo:
- Clona el repositorio:
git clone https://github.com/FreddyPinto/cuspide-bookstore-scraping.git
- Crea un entorno virtual de Python:
python -m venv venv
- Activa el entorno virtual:
- En Windows:
.\env\Scripts\activate
- Unix o MacOS:
env/bin/activate
- En Windows:
- Instala las dependencias:
pip install -r requirements.txt
- Crea un archivo
.env
en el directorio raíz del proyecto y añade las siguientes variables de entorno:DB_HOST=tu_host DB_PORT=tu_puerto DB_USERNAME=tu_usuario DB_PASSWORD=tu_contraseña
Para ejecutar el script de web scraping, usa el siguiente comando:
python src/scripts/main.py
Esto realizara el scraping de la página web de Cúspide Libros, obtendra los datos de los 100 libros más vendidos de la semana y los almacenara en una base de datos MySQL.
Tabla books Tabla errorsEste proyecto se realizó como un Producto Mínimo Viable, por lo que se podrían mejorar algunos aspectos en el futuro, con la finalidad de lograr un producto más completo y robusto. Algunas de las posibles mejoras son:
-
Mejorar la eficiencia del web scraping, explorando técnicas para acelerar la extracción de datos.
-
Implementar un manejo de errores más robusto para manejar posibles fallos durante el web scraping.
-
Implementar pruebas automatizadas para asegurar que el código funciona como se espera después de cada cambio.
-
Explorar otras bibliotecas o herramientas para el web scraping que podrían ofrecer mejores prestaciones o facilidades de uso.
-
Mejorar la documentación del proyecto, incluyendo más detalles sobre cómo se realiza el web scraping y cómo se pueden utilizar los datos extraídos.
Consulta los issues abiertos para proponer características (y problemas conocidos).
Las contribuciones son lo que hacen que la comunidad de código abierto sea un lugar increíble para aprender, inspirarse y crear. Cualquier contribución que hagas será muy apreciada.
Si tienes una sugerencia para mejorar este proyecto, haz un fork del repositorio y crea un pull request. También puedes simplemente abrir un issue con la etiqueta “enhancement”. ¡No olvides darle una estrella al proyecto! Gracias de nuevo.
- Haz un fork del Proyecto
- Crea tu feature Branch (
git checkout -b feature/AmazingFeature
) - Haz commit de tus cambios (
git commit -m 'Add some AmazingFeature'
) - Push a la Branch (
git push origin feature/AmazingFeature
) - Abre un Pull Request
Distribuido bajo la licencia MIT. Consulta el archivo LICENSE para más información.
Freddy Pinto - freddypinto@outlook.com