본문 바로가기

Open Source

(32)
Docker Image Export 및 Import docker save -o 이미지파일명.tar 이미지이름:태그 sample ( docker save -o myimage.tar myimage:latest ) docker load -i 이미지파일명.tar sample ( docker load -i myimage.tar )
Postgres Debezium Source Connector 권한 필요 https://debezium.io/documentation/reference/stable/connectors/postgresql.html#postgresql-permissions Debezium connector for PostgreSQL :: Debezium Documentation Tombstone events When a row is deleted, the delete event value still works with log compaction, because Kafka can remove all earlier messages that have that same key. However, for Kafka to remove all messages that have that same key, the..
Dockerfile Sample Java11 dockerfile sample이다 FROM adoptopenjdk/maven-openjdk11 EXPOSE 8080 ARG JAR_FILE_PATH=target/*.jar COPY ${JAR_FILE_PATH} app.jar ENTRYPOINT ["java","-Dserver.port=$PORT", "-jar", "app.jar"] from절에 참조하는 jdk11 image를 가져와서 tager/*.jar에 생성된 파일을 app.jar로 복사하고 Entrypoint를 설정해 주고 있다. 위의 $PORT는 heroku에 올리기 위해서 설정한 값이다. AWS로 올릴때에는 필요가 없을것이다.
Docker Desktop Memory 제한 하기 C:\사용자\로그인아이디 폴더로 이동한다 .wslconfig 파일을 하나 만든다 아래의 캡처된 화면 처럼 wsl2에 제한을 걸어둔다. [wsl2] memory=4GB processors=2 swap=0
Heroku에 docker Image 배포하기 docker hub에 있는 이미지를 다운받아 배포하는 형태로 간단하게 작성해 봤다 dockerfile은 아래와 같다. FROM provectuslabs/kafka-ui ENV KAFKA_CLUSTERS_0_NAME=kafka ENV KAFKA_CLUSTERS_0_BOOTSTRAPSERVERS=localhost:9092 ENV KAFKA_CLUSTERS_0_ZOOKEEPER=localhost:2181 ENTRYPOINT ["java","-Dserver.port=$PORT", "-jar", "kafka-ui-api.jar"] $PORT를 명시적으로 해줘야 heroku에서 작동을 하게 된다. 개뻘짓을 했다. dockerfile을 만든 폴더로 이동해서 아래의 url 메뉴얼처럼 heroku container:pu..
Docker desktop이 실행이 안될때(Docker failed to initialize.Docker Desktop is shutting down.) 검색을 해봐도 나에게 맞는 에러가 없길래 docker desktop log가 남는 부분을 검색했다 로그가 있는 곳을 보니 C:\users\계정\AppData\Local\Docker\log폴더에 로그들이 있었다 보니 이런 부분이 있어서 해당 폴더에 해당 파일을 삭제하니 잘 된다 아 뻘짓 정말 많이 했다.
Confluent jdbc connector Cannot make incremental queries using timestamp columns 에러가 났을때 "validate.non.null": "false" config에 추가
Postgres Source Connector { "connector.class": "io.confluent.connect.jdbc.JdbcSourceConnector", "transforms.TimestampConverter.target.type": "Timestamp", "connection.password": "******", "transforms.TimestampConverter.field": "update_date", "tasks.max": "1", "transforms": "unwrap,route,TimestampConverter", "mode": "bulk", "tombstones.on.delete": "true", "transforms.route.type": "org.apache.kafka.connect.transforms.RegexR..