Ich benutze Bitbucket -Pipelines für meine Builds. Ein zuvor funktionierender SONARQUBE -Analyseschritt fällt nun mit dem Fehler "Container 'Docker' über die Speichergrenze". Dies begann, nachdem unsere Codebasis an der Größe erhöht wurde. < /P>
Dies ist meine Konfiguration: < /p>
image: atlassian/default-image:2
clone:
depth: full # include the last five commits
definitions:
docker:
memory: 8192
caches:
sonar: ~/.sonar
steps:
- step: &run_sonar_qube_anaysis
name: "Run Sonar Qube Analysis"
size: 2x # Double resources available for this step.
script:
- pipe: sonarsource/sonarqube-scan:1.0.0
variables:
SONAR_HOST_URL: ${SONAR_HOST_URL}
SONAR_TOKEN: ${SONAR_TOKEN}
SONAR_SCANNER_OPTS: -Xmx8192m
EXTRA_ARGS: -Dsonar.php.coverage.reportPaths=test-reports/unittestscoverage.xml,test-reports/integrationtestscoverage.xml -Dsonar.php.tests.reportPath=test-reports/unittestsjunit.xml,test-reports/integrationtestsjunit.xml
artifacts:
- test-reports/**
< /code>
Ich habe bereits Folgendes ausprobiert, um das Problem zu beheben: < /p>
Erhöhter Docker -Servicespeicher auf 16384 MB (in Definitionen). < /li>
Die Sonarqube -Schrittgröße auf 4x erhöht. Reduzierte die Anzahl der Verfahren, die verarbeitet wurden. Was kann ich sonst noch versuchen, dieses Speicherproblem in der Sonarqube -Schritt meiner Bitbucket -Pipeline zu lösen? Gibt es spezifische Gedächtnisoptimierungstechniken für Sonarqube in Bitbucket -Pipelines, die mir bekannt sein sollte? Könnte die erhöhte Codebasisgröße direkt die Speicheranforderungen der zugrunde liegenden Dienste beeinflussen?
Atlassian Bitbucket Sonarqube Pipe Fehler: "Container 'Docker' übertraf die Speichergrenze" ⇐ Php
-
- Similar Topics
- Replies
- Views
- Last post