spcrawler: CLI
spcrawler — это инструмент командной строки для резервного копирования данных сайтов SharePoint.
Это все сайты, расширение гиперссылок (URL) которых будет иметь формат .aspx.
В качестве примеров рассмотрены URL сайтов Финансового университета (http://www.fa.ru/Pages/Home.aspx) и сайт информационно-аналитической системы регулирования на транспорте (https://asutk.ru/SitePages/home.aspx).
Утилита использует API SharePoint, расположенный по адресу "/_api/web", и создает дамп всех данных и ресурсов.
Основные возможности:
- Извлечение метаданных.
- Загрузите все файлы (ресурсы) из установки SharePoint.
Установка
Требуется Python версии 3.6 или выше.
# Make sure we have an up-to-date version of pip and setuptools:
$ pip install --upgrade pip setuptools
$ pip install --upgrade spcrawler
Если по какой-либо причине установка pip не удалась, вы можете попробовать easy_install spcrawler в качестве запасного варианта.
Использование
Синтаксис:
$ spcrawler [команда] [опции]
См. также python -m spcrawler и spcrawler [command] --help для справки по каждой команде.
Команды
Команда Ping
Выполняет пинг конечной точки API, расположенной по адресу url + "/_api/web", и возвращает OK, если она доступна.
Пинг конечной точки API asutk.ru:
$ spcrawler ping --url https://asutk.ru
Команда Walk
Перечисляет объекты в установке Sharepoint.
Просматривает объекты сайта fa.ru:
$ spcrawler walk --url http://fa.ru
Команда Dump
Выгружает все объекты/ списки/ данные из API в файлы строк в формате JSON. Сохраняет все данные в локальный путь "domainname/data".
Дамп данных с fa.ru:
$ spcrawler dump --url http://fa.ru
Документация: https://github.com/ruarxive/spcrawler