Formation sur les données tabulaires. TABNet. Partie 1

Nous voulions présenter la traduction d'un article intéressant sur l'apprentissage à l'aide de réseaux de neurones sur des données tabulaires. La deuxième partie est ici.





Brièvement

Présente TabNet, une nouvelle architecture canonique d'apprentissage profond haute performance basée sur des données tabulaires. TabNet utilise des évaluations séquentielles du choix des fonctionnalités à utiliser à chaque point de décision. Cela garantit l'interprétabilité et l'efficacité du processus d'apprentissage, puisque la capacité à apprendre est déterminée par les fonctions les plus pertinentes (les plus adéquates, selon les estimations considérées du choix de la solution). Il a été démontré que TabNet surpasse les autres architectures de réseaux neuronaux et d'arbres de décision sur une large gamme d'ensembles de données scalaires tabulaires dans l'interprétation des attributs de performance, conduisant à une compréhension du comportement global du modèle. Enfin, pour la première fois, à notre connaissance,nous démontrons un apprentissage auto-supervisé pour les données tabulaires avec une augmentation significative du taux d'apprentissage et un ensemble de données initial suffisamment grand.









1. Introduction

Les réseaux de neurones profonds (GNN) ont montré leur succès en travaillant avec des images [21, 50], du texte [9, 34] et du son [1, 56]. Pour ces types de données, le principal facteur de développement est la disponibilité d'architectures canoniques qui permettent d'encoder efficacement les séquences initiales en séquences d'apprentissage, pour fournir des performances élevées sur de nouveaux ensembles de données et des tâches résolues avec leur aide avec un minimum de ressources. Par exemple, dans l'interprétation d'images, des variantes de réseaux convolutifs résiduels (en particulier, ResNet [21]) devraient fournir des performances raisonnablement bonnes lorsque l'on travaille avec de nouveaux ensembles de données pour des images ou des problèmes de reconnaissance visuelle associés (par exemple, classification, taxonomie). Le seul type de données sur lequel le succès de l'architecture GNS canonique n'a pas encore été atteint est celui des données tabulaires. Malgré,qu'il s'agit du type de données le plus courant dans les implémentations d'IA [8], l'apprentissage en profondeur des données tabulaires reste mal compris et les variantes d'arbres de décision d'ensemble dominent toujours la plupart des applications [28]. Pourquoi cela est-il ainsi? Premièrement, parce que les approches arborescentes présentent certains avantages qui les rendent populaires: (i) elles sont suffisamment représentatives (et donc souvent très efficaces) pour les variétés de décision avec des limites de distribution hyperplan floues pour les données tabulaires; (ii) ils sont bien interprétés (par exemple, en suivant les décisions nodales) et il existe des méthodes efficaces pour expliquer a posteriori la forme de leur ensemble, ce qui est [36] une tâche importante dans de nombreuses applications du monde réel (par exemple, dans le secteur des services financiers, où la confiance dans des actions à haut risque est critique);(iii) ils apprennent rapidement. Deuxièmement, les architectures GNS proposées précédemment ne sont pas adaptatives aux données tabulaires: les GNS conventionnels sur couches convolutives ou perceptrons multicouches (MLP) sont souvent fortement paramétrés (par le nombre de paramètres et par la complexité de leur identification) - l'absence de biais inductif correspondant conduit au fait qu'ils ne le sont pas peuvent trouver la solution optimale pour la variété de solutions tabulaires [17]. Pourquoi étudier le Deep Learning pour les données tabulaires? Une raison évidente est que, comme dans d'autres domaines, des gains de performances peuvent être attendus des architectures basées sur GNS, en particulier pour les grands ensembles de données [22]. De plus, contrairement à l'apprentissage arborescent (hiérarchique), qui n'utilise pas la rétropropagation des erreurs de données pour conduire un apprentissage efficace à partir de signaux erronés,Les GNN fournissent des stratégies d'apprentissage de bout en bout de descente de gradient pour les données tabulaires, avec de nombreux avantages démontrés dans de nombreux domaines différents, permettant: (i) d'encoder efficacement de nombreux types de données, telles que des images sous forme de données tabulaires; (ii) faciliter ou éliminer la nécessité de développer des fonctionnalités, qui est actuellement un aspect clé des méthodes d'apprentissage par arborescence utilisant des données tabulaires; (iii) formation sur la diffusion de données en continu - la formation sur une structure arborescente nécessite des statistiques globales pour sélectionner les points nodaux, et de simples modifications, comme dans [4], donnent généralement une précision moindre que la formation pour l'ensemble de l'échantillon de données; En revanche, les STS démontrent un plus grand potentiel d'apprentissage tout au long de la vie [44]; (iv) explorer des modèles de présentation de bout en bout,permettant de nouveaux scénarios précieux pour de nouvelles applications, y compris l'adaptation aux domaines de l'utilisation efficace des données [17], la modélisation générative [46] et l'apprentissage à mi-enseignant [11].





, , . , ? - TabNet, « » ( ) ( ). , TabNet : . , - , . , : (1) , TabNet ; (2) TabNet , , , , (. . 1); , , , , [6] [61], Tab-Net .









 1.    TabNet          [14].        ,        . TabNet     ,          .           .          ,       , ,     .
1. TabNet [14]. , . TabNet , . . , , , .

(3) , : (a) TabNet ; (b) TabNet : , , , .









 2.   .        , ,      ,      .                   .
2. . , , , . .





(4) , , (. . 2).





.









2.

: , , () . , LASSO [20], , , . , [6] , [61] «-» . , TabNet , () , .





: . [18]. , (). – [23], . XGBoost [7] LightGBM [30] - , (Data Science). , , , .





DNN : , [26], . () [33, 58] . , . [60] , . [31] -, , , . [53] - « » (, ), . TabNet , .





: - , [3, 35] . , .





: , , [47]. [13] [55] - .









 3.          ()     ().           .    ,     ( ,  ) ReLU      ,      .       .    C1  C2,      -  Softmax (   ).
3. () (). . , ( , ) ReLU , . . C1 C2, - Softmax ( ).





3. TABNET

. (. . 3 ). . , () . TabNet - . , , , :





(i) , ; (ii) , , ; (iii) ; (iv) .









 4. )  TabNet    ,    ,          .       ,       ,       .                ,        . (b)  TabNet,       . (c)     – 4- ,  2          2      .      (, Fully-Connected)     (Batch Normalization)     (Gted Linear Unit). (d)     –        ,  ,          .      sparsemax [37]          .
4. ) TabNet , , . , , . , . (b) TabNet, . (c) – 4- , 2 2 . (, Fully-Connected) (Batch Normalization) (Gted Linear Unit). (d) – , , . sparsemax [37] .





. 4 TabNet . . . , (). D-





f \ dans R ^ {(B × D)}





, B- . TabNet N .





i- (i - 1)- , , . (, [25]) [40] .





, . ( ) , . .





:





M [i] ∈ R ^ {(B × D)}

. , , , . , M[i] · f. (. . 4) , , a[i − 1]:





  M [i] = sparsemax (P [i - 1] · h_i (a [i - 1])) \ (1)

Sparsemax [37] , .





, 1





\ sum_ {j = 1} ^ {D} M [i] _b, _j = 1

h[i] - , . 4., FC, BN, P[i] - , , :





P [i] = \ prod_ {j = 1} ^ {i = 1} (\ gamma - M [j]), \ (2)

γ - : γ = 1, γ, . P[0] ,





  1 ^ {B × D}

- . ( ), P[0] , . [19]:





L_ {sparse} = \ sum_ {i = 1} ^ {N_ {étapes}} \ sum_ {b = 1} ^ {B} \ sum_ {j = 1} ^ {D} \ frac {-M_ {b, j } [i]} {N_ {étapes} * B} journal (M_ {b, j} {[i]} + \ epsilon)

ϵ- . λ . , .





: (. . 4) ,





[d [i], a [i]] = fi (M [i] · f), où \ d [i] ∈ R ^ {B × N_d} \ et \ a [i] ∈ R ^ {B × N_a }.

, ( ), , .





. 4 . FC BN (GLU) [12], . √0.5 , , [15]. . BN, , , BN [24] BV mB. , , BN. , , . 3,





d_ {out} = \ sum_ {i = 1} ^ {N_ {étapes}} ReLU (d [i])

:





 W_ {final} d_ {out}

. softmax ( argmax ).









TABNet.





, , , .





[1] Dario Amodei, Rishita Anubhai, Eric Battenberg, Carl Case, Jared Casper, et al. 2015. Deep Speech 2: End-to-End Speech Recognition in English and Mandarin. arXiv:1512.02595 (2015).





[2] AutoML. 2019. AutoML Tables – Google Cloud. https://cloud.google.com/automl-tables/





[3] J. Bao, D. Tang, N. Duan, Z. Yan, M. Zhou, and T. Zhao. 2019. Text Generation From Tables. IEEE Trans Audio, Speech, and Language Processing 27, 2 (Feb 2019), 311–320.





[4] Yael Ben-Haim and Elad Tom-Tov. 2010. A Streaming Parallel Decision Tree Algorithm. JMLR 11 (March 2010), 849–872.





[5] Catboost. 2019. Benchmarks. https://github.com/catboost/benchmarks. Accessed: 2019-11-10.





[6] Jianbo Chen, Le Song, Martin J. Wainwright, and Michael I. Jordan. 2018. Learning to Explain: An Information-Theoretic Perspective on Model Interpretation. arXiv:1802.07814 (2018).





[7] Tianqi Chen and Carlos Guestrin. 2016. XGBoost: A Scalable Tree Boosting System. In KDD.





[8] Michael Chui, James Manyika, Mehdi Miremadi, Nicolaus Henke, Rita Chung, et al. 2018. Notes from the AI Frontier. McKinsey Global Institute (4 2018).





[9] Alexis Conneau, Holger Schwenk, Lo¨ıc Barrault, and Yann LeCun. 2016. Very Deep Convolutional Networks for Natural Language Processing. arXiv:1606.01781 (2016).





[10] Corinna Cortes, Xavi Gonzalvo, Vitaly Kuznetsov, Mehryar Mohri, and Scott Yang. 2016. AdaNet: Adaptive Structural Learning of Artificial Neural Networks. arXiv:1607.01097 (2016).





[11] Zihang Dai, Zhilin Yang, Fan Yang, William W. Cohen, and Ruslan Salakhutdinov. 2017. Good Semi-supervised Learning that Requires a Bad GAN. arxiv:1705.09783 (2017).





[12] Yann N. Dauphin, Angela Fan, Michael Auli, and David Grangier. 2016. Language Modeling with Gated Convolutional Networks. arXiv:1612.08083 (2016).





[13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2018. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv:1810.04805 (2018).





[14] Dheeru Dua and Casey Graff. 2017. UCI Machine Learning Repository. http: //archive.ics.uci.edu/ml





[15] Jonas Gehring, Michael Auli, David Grangier, Denis Yarats, and Yann N. Dauphin. 2017. Convolutional Sequence to Sequence Learning. arXiv:1705.03122 (2017).





[16] Pierre Geurts, Damien Ernst, and Louis Wehenkel. 2006. Extremely randomized trees. Machine Learning 63, 1 (01 Apr 2006), 3–42.





[17] Ian Goodfellow, Yoshua Bengio, and Aaron Courville. 2016. Deep Learning. MIT Press.





[18] K. Grabczewski and N. Jankowski. 2005. Feature selection with decision tree criterion. In HIS.





[19] Yves Grandvalet and Yoshua Bengio. 2004. Semi-supervised Learning by Entropy Minimization. In NIPS.





[20] Isabelle Guyon and Andre Elisseeff. 2003. An Introduction to Variable and Feature ´ Selection. JMLR 3 (March 2003), 1157–1182.





[21] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. 2015. Deep Residual Learning for Image Recognition. arXiv:1512.03385 (2015).





[22] Joel Hestness, Sharan Narang, Newsha Ardalani, Gregory F. Diamos, Heewoo Jun, Hassan Kianinejad, Md. Mostofa Ali Patwary, Yang Yang, and Yanqi Zhou. 2017. Deep Learning Scaling is Predictable, Empirically. arXiv:1712.00409 (2017).





[23] Tin Kam Ho. 1998. The random subspace method for constructing decision forests. PAMI 20, 8 (Aug 1998), 832–844.





[24] Elad Hoffer, Itay Hubara, and Daniel Soudry. 2017. Train longer, generalize better: closing the generalization gap in large batch training of neural networks. arXiv:1705.08741 (2017).





[25] Drew A. Hudson and Christopher D. Manning. 2018. Compositional Attention Networks for Machine Reasoning. arXiv:1803.03067 (2018).





[26] K. D. Humbird, J. L. Peterson, and R. G. McClarren. 2018. Deep Neural Network Initialization With Decision Trees. IEEE Trans Neural Networks and Learning Systems (2018).





[27] Mark Ibrahim, Melissa Louie, Ceena Modarres, and John W. Paisley. 2019. Global Explanations of Neural Networks: Mapping the Landscape of Predictions. arxiv:1902.02384 (2019).





[28] Kaggle. 2019. Historical Data Science Trends on Kaggle. https://www.kaggle. com/shivamb/data-science-trends-on-kaggle. Accessed: 2019-04-20.





[29] Kaggle. 2019. Rossmann Store Sales. https://www.kaggle.com/c/ rossmann-store-sales. Accessed: 2019-11-10.





[30] Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, et al. 2017. LightGBM: A Highly Effcient Gradient Boosting Decision Tree. In NIPS.





[31] Guolin Ke, Jia Zhang, Zhenhui Xu, Jiang Bian, and Tie-Yan Liu. 2019. TabNN: A Universal Neural Network Solution for Tabular Data. https://openreview.net/forum?id=r1eJssCqY7





[32] Diederik P. Kingma and Jimmy Ba. 2014. Adam: A Method for Stochastic Optimization. In ICLR.





[33] P. Kontschieder, M. Fiterau, A. Criminisi, and S. R. Bul. 2015. Deep Neural Decision Forests. In ICCV.





[34] Siwei Lai, Liheng Xu, Kang Liu, and Jun Zhao. 2015. Recurrent Convolutional Neural Networks for Text Classification. In AAAI.





[35] Tianyu Liu, Kexiang Wang, Lei Sha, Baobao Chang, and Zhifang Sui. 2017. Table-to-text Generation by Structure-aware Seq2seq Learning. arXiv:1711.09724 (2017).





[36] Scott M. Lundberg, Gabriel G. Erion, and Su-In Lee. 2018. Consistent Individualized Feature Attribution for Tree Ensembles. arXiv:1802.03888 (2018).





[37] Andre F. T. Martins and Ram ´ on Fern ´ andez Astudillo. 2016. From Softmax ´ to Sparsemax: A Sparse Model of Attention and Multi-Label Classification. arXiv:1602.02068 (2016).





[38] Rory Mitchell, Andrey Adinets, Thejaswi Rao, and Eibe Frank. 2018. XGBoost: Scalable GPU Accelerated Learning. arXiv:1806.11248 (2018).





[39] Decebal Mocanu, Elena Mocanu, Peter Stone, Phuong Nguyen, Madeleine Gibescu, and Antonio Liotta. 2018. Scalable training of artificial neural networks with adaptive sparse connectivity inspired by network science. Nature Communications 9 (12 2018).





[40] Alex Mott, Daniel Zoran, Mike Chrzanowski, Daan Wierstra, and Danilo J. Rezende. 2019. S3TA: A Soft, Spatial, Sequential, Top-Down Attention Model. https://openreview.net/forum?id=B1gJOoRcYQ





[41] Sharan Narang, Gregory F. Diamos, Shubho Sengupta, and Erich Elsen. 2017. Exploring Sparsity in Recurrent Neural Networks. arXiv:1704.05119 (2017).





[42] Nbviewer. 2019. Notebook on Nbviewer. https://nbviewer.jupyter.org/github/ dipanjanS/data science for all/blob/master/tds model interpretation xai/ Human-interpretableMachineLearning-DS.ipynb#





[43] N. C. Oza. 2005. Online bagging and boosting. In IEEE Trans Conference on Systems, Man and Cybernetics.





[44] German Ignacio Parisi, Ronald Kemker, Jose L. Part, Christopher Kanan, and Stefan Wermter. 2018. Continual Lifelong Learning with Neural Networks: A Review. arXiv:1802.07569 (2018).





[45] Liudmila Prokhorenkova, Gleb Gusev, Aleksandr Vorobev, Anna Veronika Dorogush, and Andrey Gulin. 2018. CatBoost: unbiased boosting with categorical features. In NIPS.





[46] Alec Radford, Luke Metz, and Soumith Chintala. 2015. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks. arXiv:1511.06434 (2015).





[47] Rajat Raina, Alexis Battle, Honglak Lee, Benjamin Packer, and Andrew Y. Ng. 2007. Self-Taught Learning: Transfer Learning from Unlabeled Data. In ICML.





[48] Marco Ribeiro, Sameer Singh, and Carlos Guestrin. 2016. fiWhy Should I Trust You?fi: Explaining the Predictions of Any Classifier. In KDD.





[49] Avanti Shrikumar, Peyton Greenside, and Anshul Kundaje. 2017. Learning Important Features Through Propagating Activation Differences. arXiv:1704.02685 (2017).





[50] Karen Simonyan and Andrew Zisserman. 2014. Very Deep Convolutional Networks for Large-Scale Image Recognition. arXiv:1409.1556 (2014).





[51] Weiping Song, Chence Shi, Zhiping Xiao, Zhijian Duan, Yewen Xu, Ming Zhang, and Jian Tang. 2018. AutoInt: Automatic Feature Interaction Learning via SelfAttentive Neural Networks. arxiv:1810.11921 (2018).





[52] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. 2017. Axiomatic Attribution for Deep Networks. arXiv:1703.01365 (2017).





[53] Ryutaro Tanno, Kai Arulkumaran, Daniel C. Alexander, Antonio Criminisi, and Aditya V. Nori. 2018. Adaptive Neural Trees. arXiv:1807.06699 (2018).





[54] Tensorflow. 2019. Classifying Higgs boson processes in the HIGGS Data Set. https://github.com/tensorflow/models/tree/master/offcial/boosted trees





[55] Trieu H. Trinh, Minh-Thang Luong, and Quoc V. Le. 2019. Selfie: Self-supervised Pretraining for Image Embedding. arXiv:1906.02940 (2019).





[56] Aaron van den Oord, Sander Dieleman, Heiga Zen, Karen Simonyan, Oriol ¨ Vinyals, et al. 2016. WaveNet: A Generative Model for Raw Audio. arXiv:1609.03499 (2016).





[57] Sethu Vijayakumar and Stefan Schaal. 2000. Locally Weighted Projection Regression: An O(n) Algorithm for Incremental Real Time Learning in High Dimensional Space. In ICML.





[58] Suhang Wang, Charu Aggarwal, and Huan Liu. 2017. Using a random forest to inspire a neural network and improving on it. In SDM.





[59] Wei Wen, Chunpeng Wu, Yandan Wang, Yiran Chen, and Hai Li. 2016. Learning Structured Sparsity in Deep Neural Networks. arXiv:1608.03665 (2016).





[60] Yongxin Yang, Irene Garcia Morillo, and Timothy M. Hospedales. 2018. Deep Neural Decision Trees. arXiv:1806.06988 (2018).





[61] Jinsung Yoon, James Jordon, and Mihaela van der Schaar. 2019. INVASE: Instancewise Variable Selection using Neural Networks. In ICLR.












All Articles