Ноутбуки, используемые в примере:
View file | ||
---|---|---|
|
View file | ||
---|---|---|
|
...
Для работы нам понадобятся такие библиотеки, как: Appstoreconnect, Petl, Pandas, Numpy, Sqlalchemy, Requests.
Если они у вас не установлены, то вы можете воспользоваться статьей по установке библиотек:
Установка Python библиотек в ViXtract
Теперь можно приступать к работе в JupyterLab.
...
Создаем новый ноутбук для информации о приложении, например, с именем appstoreconnect_example.
Первым блоком подключаем все необходимые нам для работы Python библиотеки:
Блок кода language py import petl as etl # для загрузки и обработки данных import pandas as pd # для удобной работы с датой и выгрузки таблицы в postgresql import datetime as dt # для рассчёта даты from appstoreconnect import Api # для подключения к App Store Connect API import sqlalchemy # для создания подключения к базе данных import requests # для отправки запроса по API ViQube admin import json # для чтения файла json
Вторым блоком подключаемся к API App Store с помощью Python библиотеки Appstoreconnect. Данные для подключения можно получить, следуя документации Creating API Keys for App Store Connect API:
Блок кода api = Api(key_id, path_to_key_file, issuer_id) # инициализация данных для api
Указываем период дат, за который будут браться отчёты. Будем использовать период с 01.01.2021 по текущую дату. Для этого обратимся к библиотеке Pandas и вызовем ее метод date_range(). В этот метод мы передаем два параметра:
start
(начальная дата периода),end
(конечная дата периода). Их мы определяем с помощью Python библиотеки datetime.Блок кода language py dateRange = pd.date_range(start = dt.datetime.today().strftime('%Y-01-01'), end = dt.datetime.today()) # установка диапазона дат
На выходе мы получим вот такой объект:
Его элементы проиндексированы, каждый элемент - это дата, за которую мы будем запрашивать информацию по API.Создадим фиксированный словарь с кодами стран и их расшифровкой, они понадобятся для дальнейшей работы с таблицей. Если вы хотите получать коды и названия стран динамически (чтобы он всегда был актуален), то можете воспользоваться API REST Countries или другим доступным в Интернете методом.
Блок кода # коды стран codes = { 'AD': 'Andorra', 'AE': 'United Arab Emirates', ... 'ZW': 'Zimbabwe', 'ZZ': 'Unknown or unspecified country', }
Отчёт формируется путём запроса информации за каждый день. На одну дату - один отчёт. Поэтому мы создадим список, в котором будем хранить первым элементом - названия столбцов, а последующими - информацию по датам.
Блок кода # получение отчётов sales=list() isFirstRow = True for reportDate in dateRange: try: resp = api.download_sales_and_trends_reports(filters={ 'vendorNumber': '86708710{vendorNumber}', 'frequency': 'DAILY', 'reportDate': reportDate.strftime('%Y-%m-%d') }).partition('\n')
Где {vendorNumber} - это ваш идентификационный номер, который вы можете узнать в своём аккаунте App Store Connect.
При получении отчёта в переменнойresp
хранятся названия столбцов вместе со значениями столбцов:
Для удобной работы с этими данными мы применяем к переменнойresp
строковый метод partition(). В качестве параметра мы передаем ему символ ‘\n’. В итоге получается кортеж, нулевой элемент которого – это название столбцов, первый - наш разделитель ‘\n’, а второй - собранные данные по дате:
Поскольку всё это происходит в цикле, то данные правила будут применимы к каждому полученному отчёту.
Так как мы хотим создать список, первым элементом которого будут названия столбцов, а другими - значения этих столбцов, то для начала нам нужна проверка для первой строки.Блок кода if isFirstRow: sales.append(resp[0]) # resp[0] хранит в себе только названия столбцов isFirstRow = False sales.extend(resp[2].split('\n')) # resp[2] хранит в себе собранные данные по дате print(reportDate) except: continue
После добавления названий столбцов, мы ставим переменнуюisFirstRow
в положение False, чтобы названия столбцов не повторялись. Затем, чтобы разделить между собой значения столбцов, мы используем метод split() и передаем ему в качестве параметра символ ‘\n’. И, используя метод extend(), добавляем значения в списокsales
. По итогу, переменнаяsales
содержит в себе названия столбцов (в качестве нулевого элемента) и значения столбцов (в качестве последующих элементов):Нужно привести данные в тот вид, с которым может работать библиотека Petl.Для этого мы разделим каждый элемент нашего списка
sales
по символу ‘\t’ с помощью уже известного метода split(). Поместим эти значения в переменнуюsplitted
:Блок кода splitted = [x.split('\t') for x in sales if x]
Теперь переменнаяsplitted
хранит в себе списки без лишних символов:
Нулевой элемент этого списка – названия столбцов, а все остальные элементы – значения столбцов.Теперь библиотека Petl с лёгкостью сформирует из этого списка таблицу. Для более информативного отображения мы добавим в таблицу столбец Country, в который поместим расшифровку кодов стран из столбца Country Code. Воспользуемся методом addfield() библиотеки Petl. Этот метод в качестве параметров принимает переменную, из которой строится таблица (нашем случае это переменная
splitted
), название нового столбца, и значение, которым будет заполнен столбец. В качестве этого значения можно передать анонимную функцию (лямбда выражение). У нашей функции в качестве переменнойx
- код страны. Мы будем использовать словарный метод get(), передадим ему переменнуюx
. Функция будет искать в нашем словареcodes
ключи из столбца Country Code и возвращать значения по этим ключам. Эти значения мы и запишем в новый столбец Country.Блок кода language py tbl = etl.addfield(splitted, 'Country', lambda x: codes.get(x['Country Code'])) # добавление столбец со странами
Так будет выглядеть сформированная таблица:Как видно, она не идеальна и хранит в себе столбцы с пустыми значениями, а так же те столбцы, которые не затрагиваются в данном примере. Воспользуемся методом cut(). В качестве параметров передаем ему нашу таблицу, и далее, через запятую в апострофах, мы передаем названия тех столбцов, которые хотим оставить в таблице:
Блок кода language py tbl = etl.cut(tbl, 'Title', 'Version', 'Units', 'Begin Date', 'Device', 'Country') # отбор нужных столбцов
На выходе получится такая таблица:Теперь можно экспортировать нашу таблицу в Excel файл для дальнейшей загрузки на платформу. Для этого воспользуемся методом toxlsx() библиотеки Petl. В качестве параметров передаем методу название Excel файла, флаг
write_header=True
указывает, что нужно записывать заголовки в таблицу, флагmode='replace'
указывает, что файл будет перезаписываться при повторном запуске кода.
Мы получили Excel таблицу, которую можно загружать на платформу:Блок кода tbl.toxlsx('appstoreconnect.xlsx', write_header=True, mode='replace')
Помимо экспорта а Excel продемонстрируем подход с сохранением данных в PostgreSQL. Установим подключение к базе данных с помощью метода create_engine() библиотеки Sqlachemy.
Где {user} - имя пользователя базы данных, {user_password} - пароль, {url} - адрес базы данных, {port} - порт, {database_name} - название базы данных, в которой будет создана таблица.Блок кода engine = sqlalchemy.create_engine('postgresql://{user}:{user_password}@{url}:{port}/{database_name}')
Далее создадим объект DataFrame библиотеки Pandas из нашей таблицы Petl. Воспользуемся методом DataFrame() и укажем ему, что названия колонок находятся - это
tbl[0]
, а значения - это срез от первого элемента таблицы Petl до последнегоtbl[1:]
.
Получим таблицу Pandas:Блок кода df = pd.DataFrame(columns=tbl[0], data=tbl[1:]
Теперь экспортируем таблицу в базу данных PostgreSQL с помощью метода to_sql() библиотеки Pandas. В параметрах передаем название таблицы, переменную подключенияengine
, которую определили выше, флагиindex=False
иif_exists='replace
, и словарь с типами данных для столбцов. Флагindex=False
говорит, что не нужно создавать столбец с индексами. Флагif_exists='replace'
указывает, что таблицу нужно перезаписать, если она уже существует. В словареdtype
мы указываем название столбца в качестве ключа, а в качестве значения указывается тип данных библиотеки Sqlalchemy и его длина. Типы данных можно посмотреть тут.
Например, для столбца ‘Title’ мы укажем тип данных VARCHAR с длинной 25. Указывается такая длина, т.к. в нашем примере длина названия приложения не будет больше 25-ти символов.Блок кода language py df.to_sql('mobileappdownload', engine, index=False, if_exists='replace', dtype={ 'Title': sqlalchemy.types.VARCHAR(25), 'Version': sqlalchemy.types.VARCHAR(5), 'Units': sqlalchemy.types.Integer(), 'Begin Date': sqlalchemy.types.Date(), 'Category': sqlalchemy.types.VARCHAR(20), 'Device' : sqlalchemy.types.VARCHAR(10), 'Countries': sqlalchemy.types.VARCHAR(30) }) a
Теперь можно перейти к работе со вторым ноутбуком. В нем мы будем получать данные об отзывах с помощью Python библиотеки app-store-scraper.
Создаем новый ноутбук для отзывов, например, с именем appstore_reviews. Импортируем библиотеки:
Блок кода import petl as etl # для загрузки и обработки данных from app_store_scraper import AppStore # для выгрузки отзывов о приложении import pandas as pd # для удобной работы с датой и выгрузки таблицы в postgresql import sqlalchemy # для создания таблицы в базе данных
Создадим в переменной
last_reviews
экземпляр класса AppStore, которому укажем код нашей страныcountry="ru"
и название приложенияapp_name="visiology mobile"
, по которому хотим собрать отзывы. Затем обратимся к методу review(), который будет парсить страницу с отзывами. Укажем нужное количество отзывов в параметреhow_many
(в нашем случае 10)
Чтобы посмотреть, как выглядят полученные отзывы, нужно обратиться к полюБлок кода last_reviews = AppStore(country="ru", app_name="visiology mobile") last_reviews.review(how_many=10)
reviews
класса Base, от которого унаследован класс AppStore. Это поле хранит в себе список с отзывами.
Если вызвать команду:
То получится такой результат:Блок кода last_reviews.reviews
Т.е. отзывы отображаются в виде списка из словарей. Из этих данных можно узнать оценку, поставленную при отзыве, заголовок отзыва, изменялся ли этот отзыв, никнейм автора, сам текст отзыва и дата публикации отзыва.Для формирования Petl таблицы воспользуемся методом fromdicts() библиотеки Petl. В него передаем поле
reviews
нашего экземпляра класса.
Теперь наша таблица выглядит так:Блок кода tbl = etl.fromdicts(last_reviews.reviews)
Удалим ненужные столбцы “isEdited” и “title”, воспользовавшись методом cutout() библиотеки Petl.
tbl = etl.cutout(tbl, 'isEdited', 'title'Блок кода Мы хотим отслеживать последнюю дату получения актуальных данных. Данные считаются актуальными, если мы не получили ошибок при выполнении двух этапов: при обращении к api; при вызове плана загрузки (опционально).
Чтобы убедиться в том, что мы не получили ошибок от api и у нас имеются нужные данные, мы проверим длину переменной
sales
, т.к. в случае ошибки в нее ничего не запишется. Результатом проверки будет значение True или False.Блок кода language py is_api_ok = len(sales) > 0
Перед тем, как проверить статус плана загрузки необходимо получить токен аутентификации.
Блок кода language py url = "http://{domain}/idsrv/connect/token" payload = "grant_type=password&scope=openid+profile+email+roles+viqube_api+viqubeadmin_api+core_logic_facade+dashboards_export_service+script_service+migration_service_api+data_collection&response_type=id_token+token&username={UserName}&password={Password}" headers = { 'content-type': "application/x-www-form-urlencoded", 'authorization': "Basic cHVibGljX3JvX2NsaWVudDpAOVkjbmckXXU+SF4zajY=" } token_response = requests.request("POST", url, data=payload, headers=headers).json()
Где {domain} – домен или IP адрес сервера платформы, {UserName} – имя пользователя, от которого будет осуществляться работа по API, {Password} – пароль пользователя
Возьмем токен из полученного ответа и запишем в переменную
access_token
:Блок кода language py access_token = token_response['access_token']
Далее мы обратимся к API ViQube Admin и запросим статус плана загрузки.
Блок кода language py url = 'http://{domain}/vqadmin//api/databases/{databaseId}/loadplans/{loadPlanId}/status' headers = { 'X-API-VERSION': "1.0", 'authorization': f"Bearer {access_token}" } loadplan_response = requests.request("GET", url, headers=headers).json()
Где {domain} – домен или IP адрес сервера платформы; {databaseId} - id базы данных ViQube; {loadPlanId} - id статус нужного плана загрузки; {access_token} - токен аутентификации, полученный выше.
Более подробно можете ознакомиться с документацией здесь.Чтобы узнать, удачно ли сработал план загрузки, мы проверим, будет ли в ответе какое-то значение у параметра Error. Если параметр отсутствует или у него нет значения - значит загрузка выполнена успешна. Результат проверки поместим в переменную
is_plan_ok
.Блок кода language py is_plan_ok = not loadplan_response['error']
Если API и план загрузки отработали верно, то запишем в переменную
last_update_day
сегодняшнюю дату. Также поместим значение даты в JSON файл, для дальнейшей синхронизации с датой получения отзывовБлок кода language py if is_plan_ok and is_api_ok: last_update_day = dt.datetime.today().strftime('%Y-%m-%d') with open('data.json', 'w') as f: json.dump({'LastUpdateDay': last_update_day}, f) else: last_update_day = None
Далее мы можем считать, что если в переменной
last_update_day
содержится значение с датой, то все запросы прошли без ошибок.Теперь можно экспортировать нашу таблицу в Excel файл для дальнейшей загрузки на платформу. Для этого воспользуемся методом toxlsx() библиотеки Petl. В качестве параметров передаем методу название Excel файла, флаг
write_header=True
указывает, что нужно записывать заголовки в таблицу, флагmode='replace'
указывает, что файл будет перезаписываться при повторном запуске кода.Блок кода language py if last_update_day: tbl.toxlsx('appstoreconnect.xlsx', write_header=True, mode='overwrite') # запись в excel
Мы получили Excel таблицу, которую можно загружать на платформу:Помимо экспорта а Excel продемонстрируем подход с сохранением данных в PostgreSQL. Установим подключение к базе данных с помощью метода create_engine() библиотеки Sqlachemy.
Блок кода language py engine = sqlalchemy.create_engine('postgresql://{user}:{user_password}@{url}:{port}/{database_name}') # подключение к базе данных
Где {user} - имя пользователя базы данных, {user_password} - пароль, {url} - адрес базы данных, {port} - порт, {database_name} - название базы данных, в которой будет создана таблица.Далее создадим объект DataFrame библиотеки Pandas из нашей таблицы Petl. Воспользуемся методом DataFrame() и укажем ему, что названия колонок - это
tbl[0]
, а значения - это срез от первого элемента таблицы Petl до последнегоtbl[1:]
.Блок кода language py if last_update_day: df = pd.DataFrame(columns=tbl[0], data=tbl[1:] # создание DataFrame из petl-таблицы
Получим таблицу Pandas:Теперь экспортируем таблицу в базу данных PostgreSQL с помощью метода to_sql() библиотеки Pandas. В параметрах передаем название таблицы, переменную подключения
engine
, которую определили выше, флагиindex=False
иif_exists='replace
, и словарь с типами данных для столбцов. Флагindex=False
говорит, что не нужно создавать столбец с индексами. Флагif_exists='replace'
указывает, что таблицу нужно перезаписать, если она уже существует. В словареdtype
мы указываем название столбца в качестве ключа, а в качестве значения указывается тип данных библиотеки Sqlalchemy и его длина. Типы данных можно посмотреть тут.
Например, для столбца ‘Title’ мы укажем тип данных VARCHAR с длинной 25. Указывается такая длина, т.к. в нашем примере длина названия приложения не будет больше 25-ти символов.Блок кода language py # экспорт в базу данных if last_update_day: df.to_sql('mobileappdownload', engine, index=False, if_exists='replace', dtype={ 'Title': sqlalchemy.VARCHAR(25), 'Version': sqlalchemy.VARCHAR(5), 'Units': sqlalchemy.Integer(), 'Begin Date': sqlalchemy.Date(), 'Device' : sqlalchemy.VARCHAR(10), 'Country': sqlalchemy.VARCHAR(30), })
...
Теперь можно перейти к работе со вторым ноутбуком. В нем мы будем получать данные об отзывах с помощью Python библиотеки app-store-scraper.
Создаем новый ноутбук для отзывов, например, с именем appstore_reviews. Импортируем библиотеки:
Блок кода language py import petl as etl # для загрузки и обработки данных from app_store_scraper import AppStore # для выгрузки отзывов о приложении import pandas as pd # для удобной работы с датой и выгрузки таблицы в postgresql import sqlalchemy # для создания таблицы в базе данных import json # для чтения JSON файла import datetime as dt # для установления даты
Чтобы избежать возможных ошибок при получении отзывов, воспользуемся конструкцией try - except.
В блоке try создадим в переменнуюlast_reviews
- экземпляр класса AppStore, которому укажем код нашей страныcountry="ru"
и название приложенияapp_name="visiology mobile"
, по которому хотим собрать отзывы. Затем обратимся к методу review(), который будет парсить страницу с отзывами. Укажем нужное количество отзывов в параметреhow_many
(в нашем случае 10). Поместим в переменнуюis_review
все получившиеся отзывы. Это позволит нам проверить наличие ошибок при запросе. Также укажем сегодняшнюю дату, в случае правильной работы запроса.
В блоке except укажем, что переменныеlast_update_day=None
иis_review = False
для того, чтобы избежать ошибок, если отзывы не загрузились.Блок кода language py # получение отзывов try: last_reviews = AppStore(country="ru", app_name="visiology mobile") last_reviews.review(how_many=10) is_review = last_reviews.reviews last_update_day = dt.datetime.today().strftime('%Y-%m-%d') except: last_update_day = None is_review = False
Чтобы посмотреть, как выглядят полученные отзывы, нужно обратиться к полюreviews
класса Base, от которого унаследован класс AppStore. Это поле хранит в себе список с отзывами.
Если вызвать команду:Блок кода language py last_reviews.reviews
То получится такой результат:
Т.е. отзывы отображаются в виде списка из словарей. Из этих данных можно узнать оценку, поставленную при отзыве, заголовок отзыва, изменялся ли этот отзыв, никнейм автора, сам текст отзыва и дата публикации отзыва.Если в ходе получения отзывов не возникло ошибок, сформируем Petl таблицу, воспользовавшись методом fromdicts() библиотеки Petl. В качестве параметров передаем поле
reviews
нашего экземпляра класса. Затем удалим ненужные столбцы “isEdited” и “title”, воспользовавшись методом cutout() библиотеки Petl.Блок кода language py if is_review: tbl = etl.fromdicts(last_reviews.reviews) # создание Petl таблицы tbl = etl.cutout(tbl, 'isEdited', 'title') # удаление ненужных столбоцв
Теперь наша таблица выглядит так:Откроем файл date.json, который мы создавали в прошлом ноутбуке и получим его данные.
Блок кода language py with open('data.json') as f: date = json.load(f)
Если дата из JSON файла совпадает с датой, что мы получили в блоке try, то добавим столбец с этой датой в нашу таблицу. Воспользуемся уже известным методом addfield() библиотеки Petl.
Блок кода language py if is_review: if date['LastUpdateDay'] == last_update_day: tbl = etl.addfield(tbl, 'UpdateDate', last_update_day)
Аналогично примеру из первого ноутбука, экспортируем нашу таблицу в Excel файл.
Блок кода language py if is_review: tbl.toxlsx('visiology_mobile_reviews.xlsx', write_header=True, mode='replace')) # экспорт в Excel
Получим такую таблицу Еxcel:По аналогии с примером из первого ноутбука, устанавливаем подключение с базой данных PostgreSQL:
Блок кода engine = sqlalchemy.create_engine('postgresql://{user}:{user_password}@{url}:{port}/{database_name}') # подключение к базе данных
Где {user} - имя пользователя базы данных, {user_password} - пароль, {url} - адрес базы данных, {port} - порт, {database_name} - название базы данных, в которой будет создана таблица.
Создаем таблицу Pandas так же, как и в первом ноутбуке.
Блок кода language py if is_review: df = pd.DataFrame(columns=tbl[0], data=tbl[1:]) # создание DataFrame из petl-таблицы
И экспортируем таблицу в Excel файл так же, как и в первом примере:
Блок кода , как и в первом примере:
Блок кода language py # экспорт в базу данных if is_review: df.to_sql('visiology_mobile_reviews', engine, index=False, if_exists='replace',, if_exists='replace', dtype={ 'userName': sqlalchemy.VARCHAR(30), dtype={ 'userNamerating': sqlalchemy.VARCHARInteger(30), 'ratingreview': sqlalchemy.IntegerText(), 'reviewdate' : sqlalchemy.TextDateTime(), 'dateUpdateDate' : sqlalchemy.DateTime(), 'title': sqlalchemy.VARCHAR(50) })
...
Мы получили 2 таблицы Еxcel и 2 таблицы в базе данных PostgreSQL.
...
Таблица в базе данных, полученная с помощью app-store-scraper:
...
Где 1 - это типы данных столбцов, 2 - данные таблицы.
...
Так выглядит дашборд, построенный из этих данных:
...