YouTube
Ноутбук, используемый в примере:
YouTube_Analytics.ipynb
Тип статьи | Инструкция |
---|---|
Компетенции | JupyterLab, Python, Petl, Pandas, YouTube Data API |
Необходимые права | Доступ к JupyterLab, доступ к аккаунту Google |
Версии компонентов | Jupyter core - 4.7.1, Petl - 1.7.2 , pandas - 1.2.3, Sqlalchemy - 1.3.23, google-api-python-client==2.2.0 |
Статус | БЕТА |
Сложность | ЛЕГКО |
Полезные ссылки | Petl, Pandas, google-api-python-client, YouTube Data API v3 |
Дополнительные сведения | ОС Ubuntu 18.04 |
В данной статье рассматривается пример обработки данных, полученных с помощью YouTube Data API. Для примера, мы будем собирать общедоступную статистику канала "Аналитическая платформа Visiology".
Для обработки данных, создания таблицы и выгрузки в Excel файл будет использована библиотека Petl, т.к. она имеет более низкий порог вхождения. Но для выгрузки данных в PostgreSQL используется библиотека Pandas, т.к. в ней это реализовано более гибко и просто.
Функционал обеих библиотек схож, и вы можете использовать ту, что вам больше нравится.
Целью этого задания является получение данных с помощью YouTube Data API для выгрузки их в платформу и построения дашборда.
Пример не является шаблонным: в каждом случае задачи разнятся, и работать с данными придется по-другому.
Вот особенности данного кейса:
Количество получаемых данных небольшое - порядка 80 строк, но для демонстрации правильного подхода все выгруженные и обработанные данные сохраняются в Excel файл и базу данных PostgreSQL. Для загрузки данных в платформу вы можете использовать любой из вариантов. Когда получаемых данных много - правильнее всего использовать запись в базу данных.
Здесь не рассматривается:
Данные будут забираться вручную. Для регулярной автоматический выгрузки необходимо настроить планировщик Chronicle.
Для дальнейшей загрузки в платформу можно воспользоваться стандартными средствами в платформе: “создание загрузчика” и “планы загрузки”. Всё описано в разделе документации (ссылка для версии 2.20):
Загрузка данных и формирование структуры в аналитической базе данных ViQubeПодробности работы подключенных Python библиотек. Это необходимо изучать отдельно.
Для работы нам понадобятся такие библиотеки, как: google-api-python-client, Petl, Pandas, SQLAlchemy.
Если они у вас не установлены, то вы можете воспользоваться статьей по установке библиотек:
Установка Python библиотекТеперь можно приступать к работе в JupyterLab.
- Создаем ноутбук с названием YouTube_Analytics.
Первым блоком подключаем все необходимые нам для работы Python библиотеки.
from googleapiclient.discovery import build # для получения информации по API import petl as etl # для загрузки и обработки данных import pandas as pd # для выгрузки таблицы в postgresql import sqlalchemy # для создания подключения к базе данных import re # регулярные выражение
Укажем YouTube Data API Key, который можно получить следуя документации (в данном примере он изменен на несуществующий). Также создадим объект
youtube
от YouTube Data, чтобы потом, обращаясь к нему, получать интересующую нас информацию.youTubeApiKey = 'BIzaSySxCQe1HesNWugdqXRDXb3LLgdzAv_4bvOtzFsA' # API из аккаунта google youtube = build('youtube', 'v3', developerKey=youTubeApiKey) # Создание объекта, используя YouTube Data API v3
Нужно определить id канала, чтобы потом получить дополнительную информацию.
Чтобы узнать id канала, достаточно перейти на главную страницу канала и посмотреть в URL.
Последние символы и есть наш id.channel_id = 'UC8LNafdLZNKqs3lbV5xAtNA' # id канала
Далее обратимся к Api YouTube и получим более детальную информацию. Конкретно нас интересует id плейлиста со всеми загруженными видео. Вызовем метод
channels()
.list() нашего объектаyoutube
. В качестве параметров укажемpart='contentDetails'
иid = channel_id
. Первый параметр означает, что мы хотим получить детальную информацию о канале, а второй - это id нашего канала.channel_id = 'UC8LNafdLZNKqs3lbV5xAtNA' # id канала content = youtube.channels().list(part='contentDetails', id = channel_id).execute() # получение детальной информации о канале
Переменная
content
содержит следующую информацию:Получим id плейлиста со всеми выгруженными видеозаписями на канале. Они находятся в ключе 'uploads' из словаря выше.
playlistId = content['items'][0]['contentDetails']['relatedPlaylists']['uploads'] # id плейлиста загруженных видео
Создадим список, в котором будем хранить информацию по всем выгруженным видео.
allvideos = [] # список с видео
При запросе информации по видеозаписям в ответе приходит параметр
pageToken
. Он сообщает токен следующей страницы, в полученном ответе. Воспользуемся им, чтобы останавливать цикл, который будет добавлять информацию о видеозаписях в список. Укажем переменнуюnextPage_token = None
.nextPage_token = None
Создадим запрос к YouTube Data, воспользовавшись функцией playlistItem().list(), в качестве параметров передадим:
playlistId
- id плейлиста со всеми выгруженными видеозаписями (его мы определили выше);maxResults = 100
-
part = 'snippet'
- означает, что мы хотим получить всю информацию о видеозаписях в рамках плейлиста;pageToken = nextPage_token
- при первом запросе мы не ссылаемся на следующую страницу, а указываем наш nextPage_token, который равен None. Добавим результат запроса в списокallvideos
. После первого запроса мы получим токен-ссылку на следующую страницу ответа. Важно понимать, что на каждой странице содержится информация о 50-ти видеозаписяхres = youtube.playlistItems().list(playlistId = playlistId, maxResults = 100, part = 'snippet', pageToken = nextPage_token).execute() allvideos += res['items'] nextPage_token = res.get('nextPageToken')
Переменнаяres
хранит в себе следующую информацию:
Переменнаяallvideos
содержит информацию видео с первой страницы ответа:Добавим в список все остальные видеозаписи. Т.к. последняя страница ответа не будет иметь токен следующей страницы, мы создадим цикл, который будет добавлять в наш список
allvideos
информацию об оставшихся видеозаписях пока этот токен существует.# добавление оставшихся видео в список while nextPage_token is not None: res = youtube.playlistItems().list(playlistId = playlistId, maxResults = 100, part = 'snippet', pageToken = nextPage_token).execute() allvideos += res['items'] nextPage_token = res.get('nextPageToken')
Теперь нужно получить id каждого видео, чтобы в дальнейшем получать его детальную информацию. Мы можем найти его в каждом элементе списка. Воспользуемся Python функцией map(). Она позволит нам применить функцию к каждому элементу нашего списка. Поэтому в качестве параметров мы передаем ей анонимную функцию (лямбда-выражение). Анонимная функция будет получать id каждого элемента списка. Все эти id мы поместим в новый список
video_ids
.video_ids = list(map(lambda x: x['snippet']['resourceId']['videoId'], allvideos)) # получение id видео
Результат выполнения кода выше:Создадим список, в который будем добавлять статистику по каждой видеозаписи. Чтобы получить статистику, создадим цикл, в котором будем делать запрос к YouTube Data, пользуясь функцией videos().list(). В качестве параметров передадим: id - id видеозаписи (они берутся у каждой видеозаписи из списка
video_ids
);part = 'statistics'
- означает, что мы хотим получать статистику по видеозаписи.# получение статистики видеозаписей по их id stats = [] for i in range(0, len(video_ids), 40): res = youtube.videos().list(id=','.join(video_ids[i:i+40]), part='statistics').execute() stats += res['items']
Полученные данные в переменнойstats
:Чтобы получить информацию о количестве подписчиков канала, создадим запрос к YouTube Data. Воспользуемся функцией
channels().list()
. В качестве параметров передадим: id - id канала ;part = 'statistics'
- означает, что мы хотим получать статистку канала.channel_stats = youtube.channels().list(part='statistics', id = channel_id).execute() # получение статистики канала
Запишем нужные нам данные в переменную
subscriberCount
:subscriberCount = channel_stats['items'][0]['statistics']['subscriberCount'] # количество подписчиков
- В нашем случае, в описании к видеозаписям хранятся ссылки. Мы хотим убрать наименование протокола, чтобы не создавалась гиперссылка в дашборде. Для этого напишем функцию, которая будет искать в тексте слово, начинающееся с 'https' и заменять наименование протокола на пустое значение:
- Теперь можно создать список из словарей, в который поместим всю имеющуюся у нас информацию. Одна информация у нас содержится в переменной
allvideos
, а другая в переменнойstats
. Поэтому мы создадим цикл, который будет проходит по значениям двух этих переменных и записывать в наш список значения для словаря, который мы укажем.
Переменнаяdata
содержит следующую информацию:
Теперь у нас есть список словарей, из которых можно с лёгкостью создать таблицу Petl. Чтобы создать таблицу воспользуемся методом fromdicts() библиотеки Petl.
table = etl.fromdicts(data) # создание petl таблицы
Добавим в таблицу столбец с количеством подписчиков канала. Для этого мы воспользуемся методом addfield() библиотеки Petl. В качестве параметров, мы передаем методу переменную с имеющейся таблицей, название нового столбца, значение нового столбца.
table = etl.addfield(table,'subscriberCount', subscriberCount)
В таблице появился новый столбец 'subscriberCount':
Мы можем экспортировать нашу таблицу в Excel файл для дальнейшей загрузки на платформу. Для этого воспользуемся методом toxlsx() библиотеки Petl. В качестве параметров передаем методу название Excel файла и флаг mode='overwrite', который указывает, что файл будет перезаписываться при повторном запуске кода.
table.toxlsx('YT_statistics.xlsx', mode='overwrite') # экспорт в Excel файл
Мы получили Excel таблицу, которую можно загружать на платформу:Помимо экспорта а Excel продемонстрируем подход с сохранением данных в PostgreSQL. Установим подключение к базе данных с помощью метода create_engine() библиотеки Sqlachemy.
engine = sqlalchemy.create_engine('postgresql://{user}:{user_password}@{url}:{port}/{database_name}') # подключение к базе данных
Где {user} - имя пользователя базы данных, {user_password} - пароль, {url} - адрес базы данных, {port} - порт, {database_name} - название базы данных, в которой будет создана таблица.
Далее создадим объект DataFrame библиотеки Pandas из нашей таблицы Petl. Воспользуемся методом DataFrame() и укажем ему, что названия колонок - это table[0], а значения - это срез от первого элемента таблицы Petl до последнего table[1:].
df = pd.DataFrame(columns=table[0], data=table[1:]) # создание DataFrame из petl-таблицы
Получим таблицу Pandas:Теперь экспортируем таблицу в базу данных PostgreSQL с помощью метода to_sql() библиотеки Pandas. В параметрах передаем название таблицы, переменную подключения engine, которую определили выше, флаги index=False и if_exists='replace', и словарь с типами данных для столбцов. Флаг index=False говорит, что не нужно создавать столбец с индексами. Флаг if_exists='replace' указывает, что таблицу нужно перезаписать, если она уже существует. В словаре dtype мы указываем название столбца в качестве ключа, а в качестве значения указывается тип данных библиотеки Sqlalchemy и его длина. Типы данных можно посмотреть тут.
Например, для столбца ‘title’ мы укажем тип данных VARCHAR с длинной 100. Указывается такая длина, т.к. в нашем примере название видеоролика не будет длиннее ста символов.# экспорт в базу данных df.to_sql('yt_analytics', engine, index=False, if_exists='replace', dtype={ 'title': sqlalchemy.VARCHAR(100), 'videoIDs': sqlalchemy.VARCHAR(50), 'video_description': sqlalchemy.Text(), 'publishedDate': sqlalchemy.Date(), 'liked': sqlalchemy.Integer(), 'disliked': sqlalchemy.Integer(), 'views': sqlalchemy.Integer(), 'comment': sqlalchemy.Integer(), 'subscriberCount': sqlalchemy.Integer() })
Мы получили таблицу Excel и таблицу в базе данных PostgreSQL.
Excel таблица:
Таблица в базе данных:1:
2:
Где 1 - это типы данных столбцов, 2 - данные таблицы.Так выглядит дашборд, построенный из этих данных:
Полученные файлы можно брать и загружать в платформу через стандартный загрузчик. На этом работа в ViXtract завершена.🥳