Z tego powodu bardzo lubię analizować twarde dane. Zachowanie użytkowników jest taką daną , a tam trudno mówić o intencjonalnym korzystaniu z produktu, który analizuję, w taki sposób, by wprowadzić badacza w błąd.
Co, gdy chcielibyśmy poznać więcej informacji o tym, kim jest nasz użytkownik? Google Analytics powie nam o tym, skąd jest i z jakiego urządzenia korzysta. Gdy pracujemy nad produktem ogólnoświatowym, możemy zacząć zastanawiać się również, jakie są przeważające rasy wśród użytkowników, dzięki czemu będziemy w stanie dostosować odpowiednio komunikację. Chcąc uniknąć pytań w kolejnej deklaratywnej ankiecie możemy posłużyć się bibliotekę Deepface, która odpowie nam na to pytanie.
Czym jest Deepface?
DeepFace to system rozpoznawania twarzy oparty na głębokim uczeniu stworzony przez grupę badawczą w Facebooku. Identyfikuje on ludzkie twarze na zdjęciach. Biblioteka wykorzystuje dziewięciowarstwową sieć neuronową o ponad 120 milionach połączeń i została wytrenowana na czterech milionach zdjęć przesłanych przez użytkowników Facebooka.
Zespół badawczy Facebook Research ogłosił, że metoda DeepFace osiąga dokładność wynoszącą 97,35% ± 0,25% na zbiorze danych Labeled Faces in the Wild (LFW), gdzie ludzie osiągają dokładność wynoszącą 97,53%.
W odpowiedzi na rosnące obawy społeczeństwa Meta ogłosiło plany zamknięcia systemu rozpoznawania twarzy na Facebooku i usunięcia danych skanu twarzy ponad miliarda użytkowników. Nie mówił jednak nic o usunięciu biblioteki Deepface. Na nasze szczęście. Przynajmniej w tym wypadku.
Jakie dane pozyskamy dzięki analizie biblioteki Deepface?
Za pomocą biblioteki Deepface możemy otrzymać takie informacje, jak:
- Dominująca emocja postaci na zdjęciu
- Procentowe rozpoznanie takich emocji postaci na zdjęciu, jak: złość, zniesmaczenie, strach, radość, smutek, zaskoczenie lub neutralny wyraz twarzy
- Dominującą płeć
- Dominującą rasę postaci na zdjęciu
- Orientacyjny wiek postaci na zdjęciu
To natomiast pozwala nam na sprawdzenie, czy zbierane awatary użytkowników korespondują nam np. z zakładaną grupą docelową, pod którą targetujemy komunikację prosprzedażową i mowa tutaj zarówno o rasie, jak i wieku.
Dla przykładu możemy spojrzeć na rozkład przypuszczalnego wiek klientów i realnych użytkowników. Skąd wziąć ten przypuszczalny wiek użytkowników? Jeśli Twoją grupą docelową są followersi konkretnego użytkownika instagrama, możesz zescrapować (choć oczywiście tego nie polecam!) ich zdjęcia profilowe.
Z pomocą powyższego wykresu będącego wynikiem przeanalizowania wieku przez bibliotekę Deepface mogę wysnuć hipotezę, że powinniśmy mocniej zastanowić się nad akwizycją użytkowników wchodzących w skład zakresu wiekowego 24-28 lata. Możliwe jednak, że ten przedział wiekowy nie zamierza płacić za mój produkt mimo precyzyjnych komunikatów. Widząc jednak spore odchylenie w udziale realnych i potencjalnych klientów we wspomnianym przedziale, spróbowałbym, choć z kilkoma testowymi kampaniami. Podobnie z zakresem 29-34 — może jesteśmy w nim wyjątkowo skuteczni w pozyskiwaniu użytkowników i należałoby jeszcze podkręcić śrubę?
Proces analizowania danych
Deepface pozwala nam uzyskać dane, do których nie mieliśmy wcześniej tak łatwego dostępu i to dosłownie w ciągu kilku minut. Sam proces pozyskiwania danych ze zdjęć jest o wiele prostszy, niż można przypuszczać.
Do skorzystania z Deepface wystarczy prosty notatnik w Jupyterze, a samą analizę danych zrobisz nawet w Excelu.
Wskazówki przed Twoją pierwszą analizą
Format zdjęć
Upewnij się, że analizujesz zdjęcia w jednym formacie — ułatwi to zadanie Deepface’owi. Aby zamienić cały zdjęciowy dataset, możesz skorzystać z prostego narzędzia, jakim jest XnConvert.
Zbiór danych wyjściowych
Z Jupytera możesz zapisywać wynik analizy każdego zdjęcia do tego samego pliku, który otworzysz później w Excelu i po uporządkowaniu danych szybko zaczniesz analizę.
Nie porządkuj ręcznie zdjęć
Znasz zasadę garbage in, garbage out? Nie martw się — Deepface może nie brać pod uwagę zdjęć niezawierających twarz. Spójrz w jego dokumentację.