▷강철규 공정거래위원장은 내달 1일 오전 7시15분 서울 리츠-칼튼호텔 그랜드볼룸에서 열리는 최고경영자조찬회에 참석,'최근 경제상황 인식과 경쟁정책 방향'이란 주제로 연설한다.
▷정해왕 한국금융연구원장은 내달 1일 오후 2시 은행연합회 2층 국제회의실에서 방카슈랑스에 관한 국제워크숍을 갖는다.
지난해 세관 당국에 적발된 소위 '짝퉁(가품)' 수입품 규모의 90%는 중국산으로 드러난 가운데 브랜드별로는 샤넬이 가장 많은것으로 조사됐다.국회 기획재정위원회 소속 국민의힘 박성훈 의원이 29일 관세청에서 받은 자료에 따르면 지난해 지식재산권을 침해해 국경 단계에서 적발된 수입품 규모는 1705억원(79건)어치였다.국가별로 보면 중국산 짝퉁 규모가 1539억원으로 전체 지재권 침해 수입품 규모의 90.3%를 차지했다. 건수로도 79건 중 61건으로 전체의 77.2%였다.중국에 이어 홍콩(67억원·5건), 태국(54억원·3건), 기타(45억원·10건) 등이었다.브랜드별로는 샤넬 짝퉁이 540억원 규모로 전체의 32%를 차지해 가장 많았다.버버리(117억원)와 루이비통(100억원) 등도 짝퉁 규모가 100억원을 넘겼다.품목별로는 가방이 803억원(28건)으로 가장 많았고, 의류·직물은 520억원(39건)으로 그 뒤를 이었다. 시계류는 202억원(8건)어치가 적발됐다.박 의원은 "해외 직구 증가와 함께 지식재산권을 침해한 중국산 짝퉁 제품도 꾸준히 증가하고 있다"며 "짝퉁 제품 유통은 소비자뿐만 아니라 국내 생산자에게도 피해를 주는 만큼 범정부 차원의 강력한 대응이 시급하다"고 말했다.유지희 한경닷컴 기자 keephee@hankyung.com
"엔비디아는 삼성전자의 고객이지 직원이 아니다. 자꾸 전화로 물어보고 요청하지 말라."삼성전자 반도체 경영진이 지난해 9월 젠슨 황 엔비디아 최고경영자(CEO)로부터 들은 말이라고 한다. 황 CEO는 삼성전자 경영진에게 "삼성전자 고대역폭메모리(HBM) 제품과 엔지니어들을 믿을 수 없다"는 발언까지 했다고 전해진다. 젠슨 황, 앞에선 삼성 칭찬하고 뒤에선 타박엔비디아가 삼성전자에 면박을 준 건 처음이 아니다. 지난해 2월께엔 엔비디아 직원이 삼성전자에 이메일을 보내 "삼성의 프로 정신 실종과 거짓말에 굉장히 실망했다"고 지적했다. 지난해 11월께엔 삼성전자 천안 HBM 패키징 라인을 실사한 엔비디아 직원이 혹평을 남기고 돌아갔다. 반도체 업계의 한 고위 경영자는 "젠슨 황이 삼성전자 경영진 앞에서 대놓고 '삼성전자는 CEO가 자주 바뀌어서 믿을 수 없다'는 얘기를 했다"고 전했다.최근 황 CEO가 '공개된 자리'에서 말한 삼성전자에 대한 응원과 격려와는 180도 다른 분위기다. 지난해 3월 삼성전자의 HBM3E 12단 제품에 남긴 '젠슨 승인(JENSEN APPROVED)' 서명부터 "삼성전자 HBM 성공엔 의심의 여지가 없다"(2025년 1월 CES 2025)는 발언까지.삼성전자 임직원과 투자자는 지난 1년간 황 CEO의 말에 '희망 고문'을 당했다. 이런 영향인지 삼성전자 최고 경영진과 이사회에도 '2024년 2분기 엔비디아 퀄 통과 가능성', '3분기 중엔 통과 유력' 등의 보고가 올라갔지만, 정작 현장에선 번번이 고배를 마셨다. 삼성전자는 지금도 HBM3E 12단 재설계와 퀄 테스트를 준비 중이다.황 CEO의 행보는 엔비디아와 삼성전자가 비즈니스 세계의 갑을 관계라
중국의 인공지능(AI) 스타트업 딥시크 충격파에 챗GPT의 운영사 오픈AI의 입지가 위협받고 있다. 오픈AI의 샘 올트먼 최고경영자(CEO)의 딥시크에 대한 평가도 최근 크게 바뀌었다. 오픈AI는 우선 무료 서비스 확대 등 이용자 잡기에 집중할 전망이다.중국 AI 굴기29일 정보기술(IT)업계에 따르면 최근 딥시크의 ‘가성비’를 앞세운 AI 모델로 미국 빅테크의 아성을 흔들고 있다. 딥시크는 최근 오픈AI의 'o1' 모델과 경쟁하는 추론 모델 ‘R1’ 시리즈를 공개했다. 누구나 쉽게 활용할 수 있는 공개(오픈 소스) LLM이다. R1과 R1-제로는 ‘딥시크-V3’를 미세 조정한 모델이다. '전문가 혼합(MoE)' 아키텍처를 채택했다. 전체 매개변수 중 약 340억개만 활성화하도록 설계돼 비용 대비 효율이 높다.앞서 딥시크는 지난달 새로운 LLM ‘딥시크 V3’를 공개했다. 이 모델의 파라미터(매개변수)는 6710억 개에 달한다. 매개변수는 AI가 학습과 추론 과정에서 데이터를 서로 연결하는 규모다. 딥시크 V3의 매개변수 규모는 역대 오픈 소스 모델 중 가장 크다. 메타 ‘라마 3.1’의 1.5배 이상이다. 딥시크에서도 글쓰기, 컴퓨터 프로그램 개발(코딩), 번역 등 문자 기반의 다양한 작업이 가능하다.딥시크의 '딥시크 R1'의 바탕 모델인 V3는 코딩 벤치마크(성능 평가)에서 오픈AI의 ‘GPT-4o’, 메타의 ‘라마-3.1’ ‘클로드-3.5 소넷’ 등을 넘어섰다. 수학에선 성능 차이가 더 컸다. 미국 고등학교 수학 경시대회 문제로 평가하는 ‘MATH 500’ 기준으로 딥시크 V3는 90.2점을 기록했다. 나머지는 모두 70점대에 그쳤다. 미국 대표적인 액셀러레이터 Y콤비네이터의 개리 탠 대표는 &