Skip to content

Repositorio de proyecto final realizado en Saturdays.ai edición LATAM

License

Notifications You must be signed in to change notification settings

christianvadillo/InfoVac

Repository files navigation

============================================================================

saturdays

linkedin Facebook

Proyecto final para Saturdays AI edición LATAM

Equipo: Turquesa

Mentor: Edwin Jiménez Lepe / Data Engineer

  1. Miembros del equipo

  2. Nombre detallado del proyecto

    • Plataforma web de detección de noticias e información confiables relacionadas a la pandemia de COVID-19 en habla hispana
  3. Nombre corto o comercial del proyecto

    • InfoVac.IA
  4. Eje rector o impacto social

    • SALUD
  5. Alineación o impacto hacia objetivos de desarrollo sostenible

    • Salud y Bienestar
  6. Descripción del problema específico

    • Se pueden detectar más de 3 mil millones de mensajes y más de 100 mil millones de publicaciones que utilizan #covid19, #coronavirus y otras etiquetas similares “Infodemia” es un término acuñado por la Organización Mundial de la Salud (OMS) en el pasado mes de mayo para describir la propagación de la desinformación sobre el virus que hace difícil que la gente encuentre recursos fiables para obtener noticias claras por los medios de comunicación tradicionales, ya que el público se encuentra con material relacionado con el coronavirus en las redes sociales. Encuestas en Estados Unidos, Brasil y México muestran que aproximadamente la mitad de los adultos están estresados por la emergencia sanitaria. Esto ha incrementado el consumo de drogas y alcohol, lo cual “puede exacerbar los problemas de salud mental” (REUTERS)
  7. Hipótesis

    • Es posible que por medio de una plataforma web conectada a un sistema de aprendizaje automático los millennials de habla hispana puedan diferenciar una noticia falsa o información de baja confiabilidad de una noticia o información real, todo lo anterior en el contexto de noticias referentes a la pandemia de COVID-19 que se está desarrollando actualmente.

Docker Container

A one paragraph description about the container.

Prerequisities

In order to run this container you'll need docker installed.

Usage

clone the repository

git clone https://github.com/christianvadillo/InfoVac/

Compile the Dockerfile

docker build -t infovac-app .

Run the docker with the server

docker run -p 8001:8001 infovac-app

Estructura del proyecto

├── LICENSE
├── Makefile           <- Makefile with commands like `make data` or `make train`
├── README.md          <- The top-level README for developers using this project.
├── app
│   ├── main.py       <- Main application that contains the FastAPI server that is used in the Docker container.
├── data
│   ├── external       <- Data from third party sources.
│   ├── interim        <- Intermediate data that has been transformed.
│   ├── processed      <- The final, canonical data sets for modeling.
│   └── raw            <- The original, immutable data dump.
│   └── train          <- Splits used in the training step.
│
├── docs               <- A default Sphinx project; see sphinx-doc.org for details
│
├── models             <- Trained and serialized models, model predictions, or model summaries
│
├── notebooks          <- Jupyter notebooks. Naming convention is a number (for ordering),
│                         the creator's initials, and a short `-` delimited description, e.g.
│                         `1.0-jqp-initial-data-exploration`.
│
├── references         <- Data dictionaries, manuals, and all other explanatory materials.
│
├── reports            <- Generated analysis as HTML, PDF, LaTeX, etc.
│   └── figures        <- Generated graphics and figures to be used in reporting
│
├── requirements.txt   <- The requirements file for reproducing the analysis environment, e.g.
│                         generated with `pip freeze > requirements.txt`
│
├── setup.py           <- makes project pip installable (pip install -e .) so src can be imported
├── src                <- Source code for use in this project.
│   ├── __init__.py    <- Makes src a Python module
│   │
│   ├── data           <- Scripts to download or generate data
│   │   └── make_dataset.py
│   │
│   ├── features       <- Scripts to turn raw data into features for modeling
│   │   └── build_features.py
│   │
│   ├── models         <- Scripts to train models and then use trained models to make
│   │   │                 predictions
│   │   ├── predict_model.py
│   │   └── train_model.py
│   │
│   └── visualization  <- Scripts to create exploratory and results oriented visualizations
│       └── visualize.py
│
└── tox.ini            <- tox file with settings for running tox; see tox.readthedocs.io

Project based on the cookiecutter data science project template. #cookiecutterdatascience

About

Repositorio de proyecto final realizado en Saturdays.ai edición LATAM

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages