Pagination – Synchroniser une démarche à forte volumétrie (synchronisation)
Exemple de cas d'usage : votre démarche a plus de 100 changements sur ses dossiers par jour et vous souhaitez synchroniser tous les dossiers dans votre SI.
Nos API renvoient jusqu'à 100 dossiers maximum par requête. De fait, si il y a plus de 100 dossiers modifiés par jours sur votre démarche, une tache planifiée (ex quotidienne) récupérant tous les dossiers modifiées ne sera pas suffisante pour suivre tous les changements.
De fait, il vous faudra utiliser notre mechanisme de curseur, hésitez pas à prendre connaissance de notre mechanisme de pagination !
Pour faciliter la lecture du code, la query GraphQL est fournie en PJ
require'net/http'require'uri'require'json'require'byebug'ENDPOINT=URI('https://www.demarches-simplifiees.fr/api/v2/graphql')CURSOR_STORAGE='lastCursor'EMPTY_CURSOR= {}### that's the GraphQL part.# We store the query in a flat file because it's easier to readdefqueryFile.read("getDemarche.updatedSince.graphql")end### that's the cursor / pagination part.# We store the cursor in a .json file because it's easier for the demo# Each demarche can have it's own cursor for continuous/batch pollingdefcursor_file_path(demarche_number)"#{EMPTY_CURSOR}-#{demarche_number}.json"end# when we emit a request, we try to reuse last persisted cursordefretrieve_last_persisted_cursor(demarche_number)JSON.parse(File.read(cursor_file_path(ENV['DEMARCHE_NUMBER']))) || {}rescueErrno::ENOENT# first call, file was never writtenputs"Info: first time using cursor on #{demarche_number}"EMPTY_CURSORrescueJSON::ParserError# strange parse errorputs"Warning: strange case, check your cursor data"EMPTY_CURSORend# when we receive a response, we try keep the cursor for next calldefpersist_last_cursor(response, demarche_number) cursor = response.dig("data","demarche","dossiers","pageInfo")if cursor['endCursor']puts"end of cursor not yet reached, persist for next call: #{cursor.inspect}"File.write(cursor_file_path(demarche_number),JSON.dump(cursor.to_h), mode: 'w')elseputs"end of cursor reached, do not persist nil endCursor otherwise restart full listing: #{cursor.inspect}"endend### that's the HTTP part# open an http connexion to our GraphQL endpointdefopen_http_connection http =Net::HTTP.new(ENDPOINT.host,ENDPOINT.port)ifENDPOINT.scheme =='https' http.use_ssl =true http.verify_mode =OpenSSL::SSL::VERIFY_NONEend httpend# the headers of our http query, include authdefrequest_headers {"Content-Type"=>"application/json","Authorization"=>"Bearer #{ENV['API_TOKEN']}" }end# given an http connexion, request the API for pagedefrequest_page(http, last_cursor)# the data of our query data = {"query"=> query,"operationName"=>"getDemarche","variables"=> {"demarcheNumber":ENV['DEMARCHE_NUMBER'].to_i,"updatedSince":ENV['UPDATED_SINCE'],"first":100 } }# continue pagination data['variables']['after'] = last_cursor['endCursor'] if last_cursor && last_cursor['endCursor']puts"variable: #{data['variables']}" req =Net::HTTP::Post.new(ENDPOINT, request_headers) req.body = data.to_json response = http.request(req) data =JSON.parse(response.body) dataenddeflog_dossiers_ids(ids)File.write('logsince-bis.ids',"\n#{ids.map { _1.join(',') }.join("\n")}", mode: 'a')endall_dossier_ids = []http = open_http_connectionlast_cursor = retrieve_last_persisted_cursor(ENV['DEMARCHE_NUMBER'])puts"last_cursor: #{last_cursor.inspect}"last_cursor ||= {}loopdo# check if we persisted a cursor so we continue polling data = request_page(http, last_cursor)puts data.inspect dossiers = data.dig('data','demarche','dossiers','nodes') dossier_ids = dossiers.map { [_1['number'], _1['dateDerniereModification']] } log_dossiers_ids(dossier_ids) all_dossier_ids.concat(dossier_ids) persist_last_cursor(data,ENV['DEMARCHE_NUMBER']) last_cursor = retrieve_last_persisted_cursor(ENV['DEMARCHE_NUMBER'])puts"Info: total count: #{all_dossier_ids.size}, fetched dossiers ids: #{dossiers.map { _1['number'] }.join(', ')}"if!(last_cursor['endCursor'] && last_cursor['hasNextPage']) puts "Info: loaded all available pages. call this script after updating a dossier and it will appear in next response"
breakendend
Questions fréquente
La variable updatedSince/UPDATED_SINCE permet ici deux choses : #1 contraindre le jeu de données initial aux dossiers ayant été modifiés depuis cette date, #2 ordonner le résultat de notre API par ce même champs. Vous n'avez pas a la manipuler pour récupérer les dossier modifié votre dernier appel à l'API.
Le curseur permet ici deux choses : #1 paginer les appels successif (ex: lorsque vous lancez la synchronisation la 1ere fois, vous pourriez avoir a récuperer plus d'une page), #2 en ré-utilisant le pageInfo.endCursor, récupérer les nouveaux résultats (ex: lors de batch quotidien).
Concrètement, l'usage de l'updatedSince permet de filtrer et ordonner les réponses aux appels de notre APIs. Le curseur permet de rappeler l'API sur cette contrainte et de récupérer les nouveaux résultats.
Donc si vous voulez faire du polling regulier, ne changer pas cette date (updatedSince), utilisez simplement le pageInfo.endCursor (et faites attention à ne pas l'écraser lorsqu'il n'y a plus de résultat).