Rdazzi,+202180 OK1
Rdazzi,+202180 OK1
Rdazzi,+202180 OK1
Peças de Vestuário
Anita Maria da Rocha Fernandes Andrei Hodecker
Ciência da Computação Pós Graduação em Big Data
Universidade do Vale do Itajaí - UNIVALI Universidade do Vale do Itajaí - UNIVALI
São José, SC, Brasil São José, SC, Brasil
[email protected] [email protected]
023
XI Computer on the Beach
Fernandes et al.
2 a 4 de Setembro de 2020, Baln. Camboriú, SC, Brasil
de identificar um possível viés. A Tabela 1 apresenta os resultados O modelo com maior acurácia foi o cnn-simple-1, com
obtidos para cada um dos modelos. 91,72%, porém com auto viés, visto que atingiu 7,19% de
diferença entre o dataset de treinamento e de testes. Já o modelo
cnn-dropout-3 também apresentou viés, pois este possui dropout
Tabela 1. Resultados obtidos dos modelos propostos consideravelmente menor que seu semelhante cnn-dropout-1. O
Loss Acurácia modelo com mais tempo de treinamento foi o cnn-dropout-2, com
Modelo Tempo 9 minutos e 16 segundos, proveniente da quantidade maior de
(Trein./Teste) (Trein./Teste)
cnn-dropout-1 6m 0,21/0.26 91,87/90,35 camada em relação a seus pares. Obteve expressivos 90,86% e
cnn-dropout-2 9m 16s 0,19/0.25 92,59/90,81 manteve um viés relativamente baixo.
cnn-dropout-3 5m 58s 0,14/0.25 94,53/90,86 Com os resultados evidenciados neste artigo, é possível
cnn-simple-1 7m 52s 0,04/0.26 98,91/91,72 concluir que modelos convolucionais possuem, de fato, mais
acurácia na tarefa de classificação de peças de vestuário em
relação a modelos de aprendizagem convencionais. Além disso,
O modelo com maior acurácia foi o cnn-simple-1, com foi possível observar que a técnica dropout e mais camadas
91,72%, porém com auto viés, visto que atingiu 7,19% de convolutivas são eficazes em diminuir o viés de um determinado
diferença entre o dataset de treinamento e de testes. Já o modelo modelo. Contudo, não foram exploradas neste artigo técnicas de
cnn-dropout-3 também apresentou viés, pois este possui dropout augmentation no dataset de imagens, esta técnica deve diminuir
consideravelmente menor que seu semelhante cnn-dropout-1. O consideravelmente o viés e aumentar a capacidade de
modelo com mais tempo de treinamento foi o cnn-dropout-2, com generalização dos modelos.
9 minutos e 16 segundos, proveniente da quantidade maior de
camada em relação a seus pares. Obteve expressivos 90,86% e
REFERÊNCIAS
manteve um viés relativamente baixo. [1] K. Yamaguchi, K, M. H. Kiapour, L. E. Ortiz, T. L. Berg. (2012). Parsing
clothing in fashion photographs. In 2012 IEEE Conference on Computer Vision
Utilizando o mesmo dataset de testes, é possível comparar and Pattern Recognition, pages 3570–3577, Providence, RI. IEEE.
estes modelos com algoritmos tradicionais não-convolutivos de [2] Y. Kalantidis, L. Kennedy, L. J. Li. (2013). Getting the look: Clothing
recognition and segmentation for automatic product suggestions in everyday
aprendizagem de máquina. Em relação aos modelos avaliados em photos. In Proceedings of the 3rd ACM Conference on International Conference
Xiao et al [7], todos os quatro modelos convolucionais deste on Multimedia Retrieval - ICMR ’13, page 105, Dallas, Texas, USA. ACM
artigo obtiveram acurácia superior ao modelo com maior acurácia, Press.
[3] L. Bossard, M. Dantone, C. Leistner, C. Wengert, T. Quack, L. Van Gool
como pode-se observar na Tabela 2. Foi considerado na tabela (2013). Apparel Classification with Style. In D. Hutchison, T. Kanade, J.
apenas o melhor resultado de cada um destes algoritmos. Kittler, J. M. Kleinberg, F. Mattern, J.C. Mitchell, M. Naor, O. Nierstrasz, C.
Pandu Rangan, B. Steffen, M. Sudan, D. Terzopoulos, D. Tygar, M. Vardi, Y.
Tabela 2. Comparação com os modelos de Xiao et al [7] Weikum, K. M. Lee, Y. Matsushita, J. M. Rehg, Z. Hu, editors, Computer
Vision – ACCV 2012, volume 7727, pages 321–335. Springer Berlin
Modelo Acurácia (Teste) Heidelberg.
[4] W. Wang, Y. Xu, J. Shen, S.C. Zhu. (2018). Attentive Fashion Grammar
cnn-simple-1 91,72 Network for Fashion Landmark Detection and Clothing Category
cnn-dropout-3 90,86 Classification. page 10.
[5] Z. Al-Halah, R. Stiefelhagen, K. Grauman. (2017). Fashion Forward:
cnn-dropout-2 90,81 Forecasting Visual Style in Fashion. In 2017 IEEE International Conference on
cnn-dropout-1 90,35 Computer Vision (ICCV), pages 388–397, Venice. IEEE.
SVC 89,7 [6] Y. Le Cun, Y. Bengio, G. Hinton. (2015). Deep learning. Nature,
521(7553):436–444.
GradientBoostingClassifier 88,0 [7] H. Xiao, K. Rasul, R. Vollgraf. (2017). Fashion-MNIST: A Novel Image
RandomForestClassifier 87,3 Dataset for Benchmarking Machine Learning Algorithms. arXiv:1708.07747.
[8] K. He, X. Zhang, S. Ren, J. Sun. (2015). Delving deep into rectifiers: Surpassing
MLPClassifier 87,1 human-level performance on imagenet classification. CoRR, abs/1502.01852.
KNeighborsClassifier 85,4 [9] F. Chollet. (2015). Keras. https://keras.io.
[10] M. Abadi, A. Agarwal, P, Barham, E. Brevdo, Z. Chen, C. Citro, G. S. Corrado,
LogisticRegression 84,2 A. Davis, J. Dean, M. Devin, S. Ghemawat, I. Goodfellow, A. Harp, G. Irving,
LinearSVC 83,6 M. Isard, Y. Jia, R. Jozefowicz, L. Kaiser, M. Kudlur, J. Levenberg, D. Mane´,
R. Monga, S., Moore, D. Murray, C. Olah, M. Schuster, J. Shlens, B. Steiner, I.
SGDClassifier 81,9 Sutskever, K. Talwar, P. Tucker, V. Vanhoucke, V. Vasudevan, F. Viegas, O.
DecisionTreeClassifier 79,8 Vinyals, P. Warden, M. Wattenberg, M. Wicke, Y. Yu, X. Zheng. (2015).
TensorFlow: Large-scale machine learning on heterogeneous systems. Software
Perceptron 78,2 disponível em tensorflow.org.
PassiveAggressiveClassifier 77,6
ExtraTreeClassifier 77,5
024