Skip to content
This repository has been archived by the owner on Jan 13, 2024. It is now read-only.

Commit

Permalink
blog post
Browse files Browse the repository at this point in the history
  • Loading branch information
sdpython committed Feb 5, 2019
1 parent 3eab4a8 commit 9f2f051
Show file tree
Hide file tree
Showing 4 changed files with 39 additions and 4 deletions.
Expand Up @@ -5,7 +5,7 @@
:date: 2019-01-22
:categories: automl

`auto-keras <https://autokeras.com/>`_,
`auto-keras <https://autokeras.com/>`_,
`Auto-Keras: Efficient Neural Architecture Search with Network Morphism <https://arxiv.org/abs/1806.10282>`_ ...
A priori le module est capable de déterminer l'architecture
la plus efficace.
la plus efficace.
32 changes: 32 additions & 0 deletions _doc/sphinxdoc/source/blog/2019/2019-02-03_tvm.rst
@@ -0,0 +1,32 @@

.. blogpost::
:title: Optimisation de calcul sur GPU
:keywords: tvm
:date: 2019-02-03
:categories: GPU

`tvm <https://tvm.ai/>`_ est une librarie de calcul
GPU hébergée sur `github/tvm <https://github.com/dmlc/tvm>`_
et démarré par les concepteurs de
`xgboost <https://github.com/dmlc/xgboost>`_.
C'est une librairie de calcul sur GPU un peu
comme :epkg:`cupy` avec un petit bout de
:epkg:`chainer`.

Le projet :epkg:`tvm` dit s'être inspiré entre autres
de `Halide <https://github.com/halide/Halide>`_.
La lecture des présentations citées sur la première
page de la `documentation <http://halide-lang.org/>`_
sont intéressantes et donnent des idées sur la façon
de coder en GPU.

Pour résumer, les libraires comme :epkg:`tvm` optimisent
les calculs GPU par rapport à d'autres plus bas
niveau comme :epkg:`pycuda`. Ces librairies agencent
les calculs de façon efficace dans la plupart des cas
mais pas forcément de façon optimale. En gros, on code
beaucoup plus vite pour une performance plus que raisonnable
même si ça ne produit pas nécessairement le code optimal.

Il y a beaucoup de mouvements dans le domaine du
GPU en ce moment.
3 changes: 1 addition & 2 deletions _doc/sphinxdoc/source/chapters/deep_learning_theorique.rst
Expand Up @@ -7,7 +7,6 @@
Deep Learning Théorique
+++++++++++++++++++++++


*Lectures*

* `Lecture notes on mathematics for deep neural networks <http://pub.math.leidenuniv.nl/~schmidthieberaj/publications/Script.pdf>`_,
Expand All @@ -16,4 +15,4 @@ Deep Learning Théorique
* `Deep Learning Methods and Applications <https://www.microsoft.com/en-us/research/wp-content/uploads/2016/02/DeepLearning-NowPublishing-Vol7-SIG-039.pdf>`_,
Li Deng and Dong Yu
* `Deep Learning <http://www.deeplearningbook.org/front_matter.pdf>`_, Ian Goodfellow, Yoshua Bengio, Aaron Courville
* `Why Does Unsupervised Pre-training Help Deep Learning? <http://www.jmlr.org/papers/volume11/erhan10a/erhan10a.pdf>`_
* `Why Does Unsupervised Pre-training Help Deep Learning? <http://www.jmlr.org/papers/volume11/erhan10a/erhan10a.pdf>`_
4 changes: 4 additions & 0 deletions _doc/sphinxdoc/source/conf.py
Expand Up @@ -57,16 +57,20 @@
epkg_dictionary.update({
'apprentissage profond': 'https://fr.wikipedia.org/wiki/Apprentissage_profond',
'auto-keras': 'https://autokeras.com/',
'chainer': 'https://chainer.org/',
'cupy': 'https://cupy.chainer.org/',
'deep learning': 'https://en.wikipedia.org/wiki/Deep_learning',
'ENSAE': 'http://www.ensae.fr/',
'GIL': 'http://www.xavierdupre.fr/app/teachpyx/helpsphinx/notebooks/gil_example.html',
'itérateur': 'https://fr.wikipedia.org/wiki/It%C3%A9rateur',
'keras': 'https://keras.io/',
'map/reduce': 'https://fr.wikipedia.org/wiki/MapReduce',
'numba': 'https://numba.pydata.org/',
'pycuda': 'https://documen.tician.de/pycuda/',
'pytorch': 'https://pytorch.org/',
'sqlite3': "https://docs.python.org/3.6/library/sqlite3.html",
'SQL': 'https://fr.wikipedia.org/wiki/Structured_Query_Language',
'Tensorflow': 'https://www.tensorflow.org/',
'TensorFlow': 'https://www.tensorflow.org/',
'tvm': 'https://docs.tvm.ai/index.html',
})

0 comments on commit 9f2f051

Please sign in to comment.