chore: refactor on project structure
This commit is contained in:
parent
5b3f50165e
commit
7f976df273
8
cv.typ
8
cv.typ
@ -5,7 +5,7 @@
|
||||
#let importModules(modules, lang: metadata.language) = {
|
||||
for module in modules {
|
||||
include {
|
||||
"modules_" + lang + "/" + module + ".typ"
|
||||
lang + "/" + module + ".typ"
|
||||
}
|
||||
v(5pt)
|
||||
}
|
||||
@ -17,8 +17,8 @@
|
||||
#importModules((
|
||||
"education",
|
||||
"skills",
|
||||
"professional",
|
||||
"career",
|
||||
"projects",
|
||||
"publications",
|
||||
"certificates",
|
||||
"activity",
|
||||
"achievements",
|
||||
))
|
||||
|
||||
23
cv_print.typ
23
cv_print.typ
@ -1,23 +0,0 @@
|
||||
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cv
|
||||
#let metadata = toml("./metadata.toml")
|
||||
#let importModules(modules, lang: metadata.language) = {
|
||||
for module in modules {
|
||||
include {
|
||||
"modules_" + lang + "/" + module + ".typ"
|
||||
}
|
||||
v(5pt)
|
||||
}
|
||||
}
|
||||
|
||||
#show: cv.with(metadata, profilePhoto: image("./src/avatar.jpg"))
|
||||
// #set text(size: 9pt)
|
||||
#importModules((
|
||||
"education",
|
||||
"skills",
|
||||
"professional",
|
||||
"projects",
|
||||
"publications",
|
||||
"certificates",
|
||||
))
|
||||
@ -1,26 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvHonor
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvHonor = cvHonor.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Certificates")
|
||||
|
||||
#cvHonor(
|
||||
date: [2022],
|
||||
title: [AWS Certified Security],
|
||||
issuer: [Amazon Web Services (AWS)],
|
||||
)
|
||||
|
||||
#cvHonor(
|
||||
date: [2017],
|
||||
title: [Applied Data Science with Python],
|
||||
issuer: [Coursera],
|
||||
)
|
||||
|
||||
#cvHonor(
|
||||
date: [],
|
||||
title: [SQL Fundamentals Track],
|
||||
issuer: [Datacamp],
|
||||
)
|
||||
@ -1,32 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvEntry, hBar
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvEntry = cvEntry.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Education")
|
||||
|
||||
#cvEntry(
|
||||
title: [Master of Data Science],
|
||||
society: [University of California, Los Angeles],
|
||||
date: [2018 - 2020],
|
||||
location: [USA],
|
||||
logo: image("../src/logos/ucla.png"),
|
||||
description: list(
|
||||
[Thesis: Predicting Customer Churn in Telecommunications Industry using Machine Learning Algorithms and Network Analysis],
|
||||
[Course: Big Data Systems and Technologies #hBar() Data Mining and Exploration #hBar() Natural Language Processing],
|
||||
),
|
||||
)
|
||||
|
||||
#cvEntry(
|
||||
title: [Bachelors of Science in Computer Science],
|
||||
society: [University of California, Los Angeles],
|
||||
date: [2018 - 2020],
|
||||
location: [USA],
|
||||
logo: image("../src/logos/ucla.png"),
|
||||
description: list(
|
||||
[Thesis: Exploring the Use of Machine Learning Algorithms for Predicting Stock Prices: A Comparative Study of Regression and Time-Series Models],
|
||||
[Course: Database Systems #hBar() Computer Networks #hBar() Software Engineering #hBar() Artificial Intelligence],
|
||||
),
|
||||
)
|
||||
@ -1,45 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvEntry
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvEntry = cvEntry.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Professional Experience")
|
||||
|
||||
#cvEntry(
|
||||
title: [Director of Data Science],
|
||||
society: [XYZ Corporation],
|
||||
logo: image("../src/logos/xyz_corp.png"),
|
||||
date: [2020 - Present],
|
||||
location: [San Francisco, CA],
|
||||
description: list(
|
||||
[Lead a team of data scientists and analysts to develop and implement data-driven strategies, develop predictive models and algorithms to support decision-making across the organization],
|
||||
[Collaborate with executive leadership to identify business opportunities and drive growth, implement best practices for data governance, quality, and security],
|
||||
),
|
||||
tags: ("Tags Example here", "Dataiku", "Snowflake", "SparkSQL"),
|
||||
)
|
||||
|
||||
#cvEntry(
|
||||
title: [Data Analyst],
|
||||
society: [ABC Company],
|
||||
logo: image("../src/logos/abc_company.png"),
|
||||
date: [2017 - 2020],
|
||||
location: [New York, NY],
|
||||
description: list(
|
||||
[Analyze large datasets with SQL and Python, collaborate with teams to uncover business insights],
|
||||
[Create data visualizations and dashboards in Tableau, develop and maintain data pipelines with AWS],
|
||||
),
|
||||
)
|
||||
|
||||
#cvEntry(
|
||||
title: [Data Analysis Intern],
|
||||
society: [PQR Corporation],
|
||||
logo: image("../src/logos/pqr_corp.png"),
|
||||
date: list(
|
||||
[Summer 2017],
|
||||
[Summer 2016],
|
||||
),
|
||||
location: [Chicago, IL],
|
||||
description: list([Assisted with data cleaning, processing, and analysis using Python and Excel, participated in team meetings and contributed to project planning and execution]),
|
||||
)
|
||||
@ -1,20 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvEntry
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvEntry = cvEntry.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Projects & Associations")
|
||||
|
||||
#cvEntry(
|
||||
title: [Volunteer Data Analyst],
|
||||
society: [ABC Nonprofit Organization],
|
||||
date: [2019 - Present],
|
||||
location: [New York, NY],
|
||||
description: list(
|
||||
[Analyze donor and fundraising data to identify trends and opportunities for growth],
|
||||
[Create data visualizations and dashboards to communicate insights to the board of directors],
|
||||
[Collaborate with other volunteers to develop and implement data-driven strategies],
|
||||
),
|
||||
)
|
||||
@ -1,17 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvPublication
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Publications")
|
||||
|
||||
#cvPublication(
|
||||
bib: bibliography("../src/publications.bib"),
|
||||
keyList: (
|
||||
"smith2020",
|
||||
"jones2021",
|
||||
"wilson2022",
|
||||
),
|
||||
refStyle: "apa",
|
||||
)
|
||||
@ -1,22 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvSkill, hBar
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Skills")
|
||||
|
||||
#cvSkill(
|
||||
type: [Languages],
|
||||
info: [English #hBar() French #hBar() Chinese],
|
||||
)
|
||||
|
||||
#cvSkill(
|
||||
type: [Tech Stack],
|
||||
info: [Tableau #hBar() Python (Pandas/Numpy) #hBar() PostgreSQL],
|
||||
)
|
||||
|
||||
#cvSkill(
|
||||
type: [Personal Interests],
|
||||
info: [Swimming #hBar() Cooking #hBar() Reading],
|
||||
)
|
||||
@ -1,26 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvHonor
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvHonor = cvHonor.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Certificates")
|
||||
|
||||
#cvHonor(
|
||||
date: [2022],
|
||||
title: [AWS Certified Security],
|
||||
issuer: [Amazon Web Services (AWS)],
|
||||
)
|
||||
|
||||
#cvHonor(
|
||||
date: [2017],
|
||||
title: [Applied Data Science with Python],
|
||||
issuer: [Coursera],
|
||||
)
|
||||
|
||||
#cvHonor(
|
||||
date: [],
|
||||
title: [Bases de données et requêtes SQL],
|
||||
issuer: [OpenClassrooms],
|
||||
)
|
||||
@ -1,32 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvEntry, hBar
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvEntry = cvEntry.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Formation")
|
||||
|
||||
#cvEntry(
|
||||
title: [Master en Science des Données],
|
||||
society: [Université de Californie à Los Angeles],
|
||||
date: [2018 - 2020],
|
||||
location: [USA],
|
||||
logo: image("../src/logos/ucla.png"),
|
||||
description: list(
|
||||
[Thèse : Prédiction du taux de désabonnement des clients dans l'industrie des télécommunications en utilisant des algorithmes d'apprentissage automatique et l'analyse de réseau],
|
||||
[Cours : Systèmes et technologies Big Data #hBar() Exploration et exploitation de données #hBar() Traitement du langage naturel],
|
||||
),
|
||||
)
|
||||
|
||||
#cvEntry(
|
||||
title: [Bachelors en Informatique],
|
||||
society: [Université de Californie à Los Angeles],
|
||||
date: [2014 - 2018],
|
||||
location: [USA],
|
||||
logo: image("../src/logos/ucla.png"),
|
||||
description: list(
|
||||
[Thèse : Exploration de l'utilisation des algorithmes d'apprentissage automatique pour la prédiction des prix des actions : une étude comparative des modèles de régression et de séries chronologiques],
|
||||
[Cours : Systèmes de base de données #hBar() Réseaux informatiques #hBar() Génie logiciel #hBar() Intelligence artificielle],
|
||||
),
|
||||
)
|
||||
@ -1,45 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvEntry
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvEntry = cvEntry.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Expérience Professionnelle")
|
||||
|
||||
#cvEntry(
|
||||
title: [Directeur de la Science des Données],
|
||||
society: [XYZ Corporation],
|
||||
date: [2020 - Présent],
|
||||
logo: image("../src/logos/xyz_corp.png"),
|
||||
location: [San Francisco, CA],
|
||||
description: list(
|
||||
[Diriger une équipe de scientifiques et d'analystes de données pour développer et mettre en œuvre des stratégies axées sur les données, développer des modèles prédictifs et des algorithmes pour soutenir la prise de décisions dans toute l'organisation],
|
||||
[Collaborer avec la direction pour identifier les opportunités d'affaires et stimuler la croissance, mettre en œuvre les meilleures pratiques en matière de gouvernance, de qualité et de sécurité des données],
|
||||
),
|
||||
tags: ("Exemple de tags ici", "Dataiku", "Snowflake", "SparkSQL"),
|
||||
)
|
||||
|
||||
#cvEntry(
|
||||
title: [Analyste de Données],
|
||||
society: [ABC Company],
|
||||
date: [2017 - 2020],
|
||||
location: [New York, NY],
|
||||
logo: image("../src/logos/abc_company.png"),
|
||||
description: list(
|
||||
[Analyser de grands ensembles de données avec SQL et Python, collaborer avec les équipes pour découvrir des insights commerciaux],
|
||||
[Créer des visualisations de données et des tableaux de bord dans Tableau, développer et maintenir des pipelines de données avec AWS],
|
||||
),
|
||||
)
|
||||
|
||||
#cvEntry(
|
||||
title: [Stagiaire en Analyse de Données],
|
||||
society: [PQR Corporation],
|
||||
date: list(
|
||||
[été 2017],
|
||||
[été 2016],
|
||||
),
|
||||
location: [Chicago, IL],
|
||||
logo: image("../src/logos/pqr_corp.png"),
|
||||
description: list([Aider à la préparation, au traitement et à l'analyse de données à l'aide de Python et Excel, participer aux réunions d'équipe et contribuer à la planification et à l'exécution de projets]),
|
||||
)
|
||||
@ -1,19 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvEntry
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvEntry = cvEntry.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Projets & Associations")
|
||||
|
||||
#cvEntry(
|
||||
title: [Analyste de Données Bénévole],
|
||||
society: [ABC Organisation à But Non Lucratif],
|
||||
date: [2019 - Présent],
|
||||
location: [New York, NY],
|
||||
description: list(
|
||||
[Analyser les données de donateurs et de collecte de fonds pour identifier les tendances et les opportunités de croissance],
|
||||
[Créer des visualisations de données et des tableaux de bord pour communiquer des insights au conseil d'administration],
|
||||
),
|
||||
)
|
||||
@ -1,17 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvPublication
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Publications")
|
||||
|
||||
#cvPublication(
|
||||
bib: bibliography("../src/publications.bib"),
|
||||
keyList: (
|
||||
"smith2020",
|
||||
"jones2021",
|
||||
"wilson2022",
|
||||
),
|
||||
refStyle: "apa",
|
||||
)
|
||||
@ -1,22 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvSkill, hBar
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Compétences")
|
||||
|
||||
#cvSkill(
|
||||
type: [Langues],
|
||||
info: [Anglais #hBar() Français #hBar() Chinois],
|
||||
)
|
||||
|
||||
#cvSkill(
|
||||
type: [Tech Stack],
|
||||
info: [Tableau #hBar() Python (Pandas/Numpy) #hBar() PostgreSQL],
|
||||
)
|
||||
|
||||
#cvSkill(
|
||||
type: [Centres d'intérêt],
|
||||
info: [Natation #hBar() Cuisine #hBar() Lecture],
|
||||
)
|
||||
@ -1,26 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvHonor
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvHonor = cvHonor.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Certificazioni")
|
||||
|
||||
#cvHonor(
|
||||
date: [2022],
|
||||
title: [AWS Certified Security],
|
||||
issuer: [Amazon Web Services (AWS)],
|
||||
)
|
||||
|
||||
#cvHonor(
|
||||
date: [2017],
|
||||
title: [Applied Data Science with Python],
|
||||
issuer: [Coursera],
|
||||
)
|
||||
|
||||
#cvHonor(
|
||||
date: [],
|
||||
title: [Fondamenti di SQL],
|
||||
issuer: [Datacamp],
|
||||
)
|
||||
@ -1,32 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvEntry, hBar
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvEntry = cvEntry.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Istruzione")
|
||||
|
||||
#cvEntry(
|
||||
title: [Master in Data Science],
|
||||
society: [Università della California, Los Angeles],
|
||||
date: [2018 - 2020],
|
||||
location: [USA],
|
||||
logo: image("../src/logos/ucla.png"),
|
||||
description: list(
|
||||
[Tesi: Previsione del tasso di abbandono dei clienti nel settore delle telecomunicazioni mediante algoritmi di apprendimento automatico e analisi delle reti],
|
||||
[Corsi: Sistemi e tecnologie basati su Big Data #hBar() Data Mining #hBar() Natural language processing],
|
||||
),
|
||||
)
|
||||
|
||||
#cvEntry(
|
||||
title: [Laurea in informatica],
|
||||
society: [Università della California, Los Angeles],
|
||||
date: [2018 - 2020],
|
||||
location: [USA],
|
||||
logo: image("../src/logos/ucla.png"),
|
||||
description: list(
|
||||
[Tesi: Esplorazione di algoritmi di apprendimento automatico per prevedere i prezzi delle azioni: uno studio comparativo di modelli di regressione e serie temporali],
|
||||
[Corsi: Sistemi di database #hBar() Reti di calcolatori #hBar() Ingegneria del software #hBar() Intelligenza artificiale],
|
||||
),
|
||||
)
|
||||
@ -1,42 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvEntry
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvEntry = cvEntry.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Esperienze di lavoro")
|
||||
|
||||
#cvEntry(
|
||||
title: [Direttore di Data Science],
|
||||
society: [XYZ Corporation],
|
||||
logo: image("../src/logos/xyz_corp.png"),
|
||||
date: [2020 - Presente],
|
||||
location: [San Francisco, CA],
|
||||
description: list(
|
||||
[Guido un team di data scientist e analisti per sviluppare e implementare strategie basate sui dati, sviluppo modelli predittivi e algoritmi per supportare il processo decisionale in tutta l'organizzazione],
|
||||
[Collaboro con la dirigenza esecutiva per identificare opportunità di business e guidare la crescita, implemento le migliori pratiche per la governance dei dati, la qualità e la sicurezza],
|
||||
),
|
||||
tags: ("Tag d'esempio qui", "Dataiku", "Snowflake", "SparkSQL"),
|
||||
)
|
||||
|
||||
#cvEntry(
|
||||
title: [Data Analyst],
|
||||
society: [ABC Company],
|
||||
logo: image("../src/logos/abc_company.png"),
|
||||
date: [2017 - 2020],
|
||||
location: [New York, NY],
|
||||
description: list(
|
||||
[Analizzo dataset di grandi dimensioni con SQL e Python, collaboro con i team per avere informazioni utili a livello di business],
|
||||
[Creo visualizzazioni di dati e dashboard con Tableau, sviluppo e gestisco pipeline di dati con AWS],
|
||||
),
|
||||
)
|
||||
|
||||
#cvEntry(
|
||||
title: [Tirocinio in Data Analysis],
|
||||
society: [PQR Corporation],
|
||||
logo: image("../src/logos/pqr_corp.png"),
|
||||
date: [Summer 2017],
|
||||
location: [Chicago, IL],
|
||||
description: list([Ho collaborato alla pulizia, all'elaborazione e all'analisi dei dati utilizzando Python ed Excel, ho partecipato alle riunioni del team e ho contribuito alla pianificazione e all'esecuzione del progetto]),
|
||||
)
|
||||
@ -1,20 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvEntry
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvEntry = cvEntry.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Progetti")
|
||||
|
||||
#cvEntry(
|
||||
title: [Data Analyst volontario],
|
||||
society: [ABC Nonprofit Organization],
|
||||
date: [2019 - Present],
|
||||
location: [New York, NY],
|
||||
description: list(
|
||||
[Analizzo i dati sui donatori e sulla raccolta fondi per identificare tendenze e opportunità di crescita],
|
||||
[Creo visualizzazioni di dati e dashboard per comunicare informazioni al consiglio di amministrazione],
|
||||
[Collaboro con altri volontari per sviluppare e implementare strategie basate sui dati],
|
||||
),
|
||||
)
|
||||
@ -1,17 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvPublication
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Pubblicazioni")
|
||||
|
||||
#cvPublication(
|
||||
bib: bibliography("../src/publications.bib"),
|
||||
keyList: (
|
||||
"smith2020",
|
||||
"jones2021",
|
||||
"wilson2022",
|
||||
),
|
||||
refStyle: "apa",
|
||||
)
|
||||
@ -1,22 +0,0 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvSkill, hBar
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("Competenze")
|
||||
|
||||
#cvSkill(
|
||||
type: [Lingue],
|
||||
info: [Inglese #hBar() Francese #hBar() Cinese],
|
||||
)
|
||||
|
||||
#cvSkill(
|
||||
type: [Tecnologie],
|
||||
info: [Tableau #hBar() Python (Pandas/Numpy) #hBar() PostgreSQL],
|
||||
)
|
||||
|
||||
#cvSkill(
|
||||
type: [Interessi personali],
|
||||
info: [Nuoto #hBar() Cucina #hBar() Lettura],
|
||||
)
|
||||
@ -1,158 +0,0 @@
|
||||
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvEntry, cvSection
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvEntry = cvEntry.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("项目经历")
|
||||
|
||||
#cvEntry(
|
||||
title: [智能安保机器人],
|
||||
society: [Creeper Go],
|
||||
date: [2025.7],
|
||||
location: [杭州],
|
||||
tags: ("ROS", "计算机视觉"),
|
||||
description: "",
|
||||
)
|
||||
|
||||
这是一个基于 ROS2 的智能安保机器人,集成了计算机视觉、路径规划等功能。
|
||||
|
||||
我们现场微调了一个 Yolov8s 模型,训练其可以识别佩戴胸牌的行人。这个机器人会自动追逐场馆内未佩戴胸牌的人。
|
||||
|
||||
- *[推理延迟优化]* 通过数据预处理、模型量化、减少处理批次等手段,将 Yolov8s 模型的推理延迟从原本的 200ms 降低到 50ms,保证了机器人在移动中的实时识别能力。
|
||||
|
||||
- *[路径规划]* 构造的简易的自动机,实现了机器人在场馆内的自动巡逻和避障功能。
|
||||
|
||||
- *[数据回传]* 通过一个模块回传摄像头内容以及识别结果,方便安保人员远程监控。
|
||||
|
||||
#v(1em)
|
||||
|
||||
#cvEntry(
|
||||
title: [AI 赋能的前端开发工具],
|
||||
society: [GuiiAI Devtools],
|
||||
date: [2024.8 - 2025.1],
|
||||
location: [杭州],
|
||||
tags: ("Unplugin", "Vue", "Monorepo", "TypeScript", "Vite"),
|
||||
description: "",
|
||||
)
|
||||
|
||||
这是一个作为 Vite Devtools 的 AI 编程开发工具,安装到任意现有项目,不依赖编辑器、IDE。
|
||||
|
||||
在2024年 AdventureX 黑客松中的作品,后续维护过几个月、开放过限量内测,内测用户大约 1k 人左右。
|
||||
|
||||
我主要负责的部分是:在比赛阶段和伙伴在三天内做出产品原型、VitePlugin Server 注入SPA 页面的部分、悬浮球的动画、Monorepo 重构后 RPC 库的构建,也参与产品设计的讨论、与投资人的沟通。
|
||||
|
||||
|
||||
- *[项目架构]* GuiiAI Devtools 分为多个包。主要组成部分为:Vite Plugin Server、悬浮球叠加层、操作面板。Vite Server 提供修改代码文件、获取源码的能力,悬浮球叠加层和操作面板可以让用户发出 Prompt。
|
||||
|
||||
|
||||
- *[项目基建]* GuiiAI Devtools 的仓库是一个大的 Monorepo,分为多个包发布。最开始使用 Vercel 的 ai-sdk 作为 AI 库,但由于其自定义能力不够,我们自己封装了 neuri 库作为替代
|
||||
|
||||
- *[编译时 DOM 注入]* 通过 Vite Plugin 的能力,将一个悬浮球注入到用户 Dev 模式的网页,作为用户控制 AI 写代码的操作中心。注入的元素使用另一个 Vue 实例,因此不要求用户使用 Vue 开发。
|
||||
|
||||
- *[UI 样式隔离]* 为避免用户页面的全局样式污染悬浮球和面板,我们使用 shadow-dom 隔离了悬浮球和主页面的样式,避免了样式污染,主面板使用 Iframe,隔绝上下文。
|
||||
|
||||
- *[Vite 到浏览器的 RPC 通信]* 为保证 Vite Plugin Server 和 前端的双向通信,我封装了一个简易的 RPC 库。浏览器不同上下文之间使用 BroadcastChannel 通信,浏览器与 Vite Plugin Server 复用 dev ws 相互通信。
|
||||
|
||||
|
||||
|
||||
#v(1em)
|
||||
|
||||
#cvEntry(
|
||||
title: [气象科学与技术研究],
|
||||
society: [次季节性热带气旋智能预报研究],
|
||||
date: [2023.12 - 至今],
|
||||
location: [南京],
|
||||
tags: ("PyTorch", "深度学习", "气象预报"),
|
||||
description: "",
|
||||
)
|
||||
开发轻量级多尺度卷积网络(LMCNet)预测台风活动,显著超越传统方法
|
||||
|
||||
- *[创新点]* 提出LMCNet (轻量级多尺度卷积网络),结合多模态预报数据与气候学观测数据,实现更精确的台风概率预测。针对S2S台风数据集规模小的特点,采用浅层网络架构和多尺度卷积操作,以更少的参数提高季节性台风预测的位置准确度。
|
||||
|
||||
- *[优秀的模型性能]* 在2023年季节30天预报期内,我们的方法在DBSS评分方面较ECMWF(最佳传统预报模式)提高36%,较UNet预报方法提高18%。当预报提前期少于5天时,LMCNet方法将均方误差降低了60%,显著提高了短期预报精度。
|
||||
|
||||
// - *[技术栈应用]* 采用PyTorch构建深度学习模型框架,使用PyTorch Lightning简化训练流程并提高代码可读性,通过Seaborn生成高质量可视化图表评估模型预测结果与真实气象数据的差异。
|
||||
|
||||
- *[成果]* 获得优秀毕业论文,目前正在整理并准备提交气象学顶级期刊发表。衍生项目得到全国软件设计大赛全国二等奖。项目展示了深度学习在气象学领域的应用潜力,为提高热带气旋预测准确性提供了新思路。
|
||||
|
||||
- *[能力提升]* 通过此项目,我系统掌握了深度学习算法设计、大规模气象数据处理、科研论文撰写和项目管理能力,为后续研究奠定了坚实基础。
|
||||
|
||||
|
||||
#v(1em)
|
||||
|
||||
#cvEntry(
|
||||
title: "一个资源分享站",
|
||||
society: "NuistShare",
|
||||
location: "南京",
|
||||
tags: ("Nuxt", "NestJs", "Prisma", "TypeScript", "S3", "AList", "Github OAuth"),
|
||||
description: "",
|
||||
date: "2023.7-2023.9",
|
||||
)
|
||||
|
||||
一个使用 Nuxt3、NestJs 开发的学习资料共享站点。部署在腾讯云上。
|
||||
|
||||
- *[打包体积优化]* 优化字体以及部分样式进行懒加载,部分组件使用动态导入加载,将首屏需要加载的资源从 2M 优化到240k,大大缩短首屏加载时间。
|
||||
|
||||
- *[中文字体分块优化]* 使用开源项目中文网字计划对字体分包,导出为分片 woff 并在 CDN 处设置强缓存。解决字体过大加载缓慢 的问题。
|
||||
|
||||
- *[Prerender 支持]* 使用 Nuxt 3 的能力,提前预渲染主页样式,缩短首屏加载时间
|
||||
|
||||
- *[CDN 集成部署优化]* 利用 vite-plugin-qiniu, 将 assets 上传至 CDN 并配置强缓存
|
||||
|
||||
- *[S3、AList 多存储协议支持]* 通过抓包并分析 Alist,支持了 Alist 协议,并且支持了 S3 协议。
|
||||
|
||||
- *[Github OAuth、邮箱验证支持]* 通过 node-mail 库支持了发送邮件,支持了 Github OAuth 登录。
|
||||
|
||||
- *[响应式UI设计]* 使用了 Vue 3 的 Composition API 进行开发,使用了 Vue 3 的 Suspense 特性, 实现了响应式 UI 设计。
|
||||
|
||||
// #pagebreak()
|
||||
|
||||
#cvEntry(
|
||||
title: "麦趣测评小游戏",
|
||||
society: "麦趣职前教育小游戏",
|
||||
tags: ("Uniapp", "Vue2", "Vue3", "TypeScript"),
|
||||
description: "",
|
||||
location: "南京",
|
||||
date: "2022.7-2022.9",
|
||||
)
|
||||
|
||||
一个纯用 H5 技术做的游戏化测评类,内含大量游戏关卡,用于测评、品牌营销等。包含了大量的响应式适配、 动画、事件触发。
|
||||
|
||||
小游戏有几个版本,初版使用 Uniapp 开发微信小程序,后续有微信 H5 应用。管理平台为用户定制游戏化测评应用的管理平台。
|
||||
|
||||
|
||||
- *[报告图生成]* 在产品的不同时期采用 Canvas 绘制 HTML2CANVAS 的方案动态生成报告图用于用户保存和 分享。
|
||||
|
||||
- *[微信接入]* 负责完成小程序、H5 应用的 微信登录、支付的接入。
|
||||
|
||||
- *[组件封装]* 主导组件化工作,负责计时器、判题弹窗、关卡流程控制等游戏通用组件开发,提供给其他成员使用,编写了详 细的组件文档。
|
||||
|
||||
- *[响应式界面]* 设计响应式系统,基于媒体查询设计响应式断点规则,为多种窗口尺寸进行了响应式适配。对 IOS 微信下方导 航栏进行特殊处理。
|
||||
|
||||
- *[构建流水线与管理工作]* 使用了 Github Actions 进行自动化构建与部署,推送到相关云服务。负责内部测试、研发 外包的发布、对接工作。
|
||||
|
||||
// #pagebreak()
|
||||
|
||||
|
||||
#cvEntry(
|
||||
title: "基于 React native 开发的米家空调插件,基于 Spec 协议",
|
||||
society: "米家空调插件",
|
||||
tags: ("React Native", "Redux", "Spec Protocol", "i18n", "RTL"),
|
||||
date: "2025.4-2025.8",
|
||||
location: "南京",
|
||||
description: "",
|
||||
)
|
||||
|
||||
在小米实习时,负责维护和迭代功能的的部分。我主要负责海外的空调产品线的插件迭代、Bugfix、新品需求。
|
||||
|
||||
- *[项目架构]* 项目采用 React Native 开发,使用 Spec 协议与米家 APP 进行通信。
|
||||
|
||||
- *[国际化支持]* 使用自封装库完成国际化支持,支持多语言切换。
|
||||
|
||||
- *[RTL 支持]* 支持了 RTL 布局,支持从右向左的布局。通过对 Victory Chart 等组件库的再封装,实现了图标等组件的 RTL 布局的支持。
|
||||
|
||||
- *[状态管理]* 使用 Redux 的修改版 Rematch 进行状态管理,自动订阅服务端 Spec 变更
|
||||
|
||||
@ -1,5 +1,5 @@
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cv, cvSection
|
||||
#import "@preview/brilliant-cv:3.1.2": cv, cvSection
|
||||
#let metadata = toml("./metadata.toml")
|
||||
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
|
||||
Binary file not shown.
|
Before Width: | Height: | Size: 6.1 KiB |
Binary file not shown.
|
Before Width: | Height: | Size: 16 KiB |
Binary file not shown.
|
Before Width: | Height: | Size: 36 KiB |
@ -1,31 +0,0 @@
|
||||
@article{smith2020,
|
||||
author = {Smith, John},
|
||||
title = {An Introduction to Data Analysis Techniques},
|
||||
journal = {Journal of Data Science},
|
||||
year = {2020},
|
||||
volume = {15},
|
||||
number = {2},
|
||||
pages = {123-145},
|
||||
}
|
||||
|
||||
@inproceedings{jones2021,
|
||||
author = {Jones, Sarah and Brown, Michael},
|
||||
title = {Exploratory Data Analysis for Predictive Modeling},
|
||||
booktitle = {Proceedings of the International Conference on Data Science},
|
||||
year = {2021},
|
||||
pages = {256-267},
|
||||
}
|
||||
|
||||
@book{wilson2022,
|
||||
author = {Wilson, David},
|
||||
title = {Machine Learning for Data Analysis},
|
||||
publisher = {Springer},
|
||||
year = {2022},
|
||||
}
|
||||
|
||||
@techreport{brown2023,
|
||||
author = {Brown, Emily},
|
||||
title = {Data Visualization Techniques: A Comparative Study},
|
||||
institution = {Technical Report},
|
||||
year = {2023},
|
||||
}
|
||||
@ -1,6 +1,6 @@
|
||||
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvHonor, cvSection
|
||||
#import "@preview/brilliant-cv:3.1.2": cvHonor, cvSection
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvHonor = cvHonor.with(metadata: metadata)
|
||||
@ -1,6 +1,6 @@
|
||||
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvPublication, cvSection
|
||||
#import "@preview/brilliant-cv:3.1.2": cvPublication, cvSection
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
|
||||
@ -1,6 +1,6 @@
|
||||
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvEntry, cvSection
|
||||
#import "@preview/brilliant-cv:3.1.2": cvEntry, cvSection
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvEntry = cvEntry.with(metadata: metadata)
|
||||
@ -1,6 +1,6 @@
|
||||
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:2.0.5": cvEntry, cvSection, hBar
|
||||
#import "@preview/brilliant-cv:3.1.2": cvEntry, cvSection, hBar
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvEntry = cvEntry.with(metadata: metadata)
|
||||
33
zh/projects.typ
Normal file
33
zh/projects.typ
Normal file
@ -0,0 +1,33 @@
|
||||
|
||||
// Imports
|
||||
#import "@preview/brilliant-cv:3.1.2": cvEntry, cvSection
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
#let cvEntry = cvEntry.with(metadata: metadata)
|
||||
|
||||
#cvSection("项目经历")
|
||||
|
||||
|
||||
#include "./projects/creeper.typ"
|
||||
|
||||
#v(1em)
|
||||
|
||||
#include "projects/guiiai.typ"
|
||||
|
||||
|
||||
#v(1em)
|
||||
|
||||
#include "projects/typhoon.typ"
|
||||
|
||||
#v(1em)
|
||||
|
||||
#include "projects/nuistshare.typ"
|
||||
|
||||
#v(1em)
|
||||
|
||||
#include "projects/maiqu.typ"
|
||||
|
||||
#v(1em)
|
||||
|
||||
#include "projects/mihome.typ"
|
||||
|
||||
21
zh/projects/creeper.typ
Normal file
21
zh/projects/creeper.typ
Normal file
@ -0,0 +1,21 @@
|
||||
|
||||
#import "@preview/brilliant-cv:3.1.2": cvEntry, cvSection
|
||||
|
||||
#cvEntry(
|
||||
title: [智能安保机器人],
|
||||
society: [Creeper Go],
|
||||
date: [2025.7],
|
||||
location: [杭州],
|
||||
tags: ("ROS", "计算机视觉"),
|
||||
description: "",
|
||||
)
|
||||
|
||||
这是一个基于 ROS2 的智能安保机器人,集成了计算机视觉、路径规划等功能。
|
||||
|
||||
我们现场微调了一个 Yolov8s 模型,训练其可以识别佩戴胸牌的行人。这个机器人会自动追逐场馆内未佩戴胸牌的人。
|
||||
|
||||
- *[推理延迟优化]* 通过数据预处理、模型量化、减少处理批次等手段,将 Yolov8s 模型的推理延迟从原本的 200ms 降低到 50ms,保证了机器人在移动中的实时识别能力。
|
||||
|
||||
- *[路径规划]* 构造的简易的自动机,实现了机器人在场馆内的自动巡逻和避障功能。
|
||||
|
||||
- *[数据回传]* 通过一个模块回传摄像头内容以及识别结果,方便安保人员远程监控。
|
||||
29
zh/projects/guiiai.typ
Normal file
29
zh/projects/guiiai.typ
Normal file
@ -0,0 +1,29 @@
|
||||
#import "@preview/brilliant-cv:3.1.2": cvEntry, cvSection
|
||||
|
||||
|
||||
#cvEntry(
|
||||
title: [AI 赋能的前端开发工具],
|
||||
society: [GuiiAI Devtools],
|
||||
date: [2024.8 - 2025.1],
|
||||
location: [杭州],
|
||||
tags: ("Unplugin", "Vue", "Monorepo", "TypeScript", "Vite"),
|
||||
description: "",
|
||||
)
|
||||
|
||||
这是一个作为 Vite Devtools 的 AI 编程开发工具,安装到任意现有项目,不依赖编辑器、IDE。
|
||||
|
||||
在2024年 AdventureX 黑客松中的作品,后续维护过几个月、开放过限量内测,内测用户大约 1k 人左右。
|
||||
|
||||
我主要负责的部分是:在比赛阶段和伙伴在三天内做出产品原型、VitePlugin Server 注入SPA 页面的部分、悬浮球的动画、Monorepo 重构后 RPC 库的构建,也参与产品设计的讨论、与投资人的沟通。
|
||||
|
||||
|
||||
- *[项目架构]* GuiiAI Devtools 分为多个包。主要组成部分为:Vite Plugin Server、悬浮球叠加层、操作面板。Vite Server 提供修改代码文件、获取源码的能力,悬浮球叠加层和操作面板可以让用户发出 Prompt。
|
||||
|
||||
|
||||
- *[项目基建]* GuiiAI Devtools 的仓库是一个大的 Monorepo,分为多个包发布。最开始使用 Vercel 的 ai-sdk 作为 AI 库,但由于其自定义能力不够,我们自己封装了 neuri 库作为替代
|
||||
|
||||
- *[编译时 DOM 注入]* 通过 Vite Plugin 的能力,将一个悬浮球注入到用户 Dev 模式的网页,作为用户控制 AI 写代码的操作中心。注入的元素使用另一个 Vue 实例,因此不要求用户使用 Vue 开发。
|
||||
|
||||
- *[UI 样式隔离]* 为避免用户页面的全局样式污染悬浮球和面板,我们使用 shadow-dom 隔离了悬浮球和主页面的样式,避免了样式污染,主面板使用 Iframe,隔绝上下文。
|
||||
|
||||
- *[Vite 到浏览器的 RPC 通信]* 为保证 Vite Plugin Server 和 前端的双向通信,我封装了一个简易的 RPC 库。浏览器不同上下文之间使用 BroadcastChannel 通信,浏览器与 Vite Plugin Server 复用 dev ws 相互通信。
|
||||
27
zh/projects/maiqu.typ
Normal file
27
zh/projects/maiqu.typ
Normal file
@ -0,0 +1,27 @@
|
||||
|
||||
#import "@preview/brilliant-cv:3.1.2": cvEntry, cvSection
|
||||
|
||||
|
||||
#cvEntry(
|
||||
title: "麦趣测评小游戏",
|
||||
society: "麦趣职前教育小游戏",
|
||||
tags: ("Uniapp", "Vue2", "Vue3", "TypeScript"),
|
||||
description: "",
|
||||
location: "南京",
|
||||
date: "2022.7-2022.9",
|
||||
)
|
||||
|
||||
一个纯用 H5 技术做的游戏化测评类,内含大量游戏关卡,用于测评、品牌营销等。包含了大量的响应式适配、 动画、事件触发。
|
||||
|
||||
小游戏有几个版本,初版使用 Uniapp 开发微信小程序,后续有微信 H5 应用。管理平台为用户定制游戏化测评应用的管理平台。
|
||||
|
||||
|
||||
- *[报告图生成]* 在产品的不同时期采用 Canvas 绘制 HTML2CANVAS 的方案动态生成报告图用于用户保存和 分享。
|
||||
|
||||
- *[微信接入]* 负责完成小程序、H5 应用的 微信登录、支付的接入。
|
||||
|
||||
- *[组件封装]* 主导组件化工作,负责计时器、判题弹窗、关卡流程控制等游戏通用组件开发,提供给其他成员使用,编写了详 细的组件文档。
|
||||
|
||||
- *[响应式界面]* 设计响应式系统,基于媒体查询设计响应式断点规则,为多种窗口尺寸进行了响应式适配。对 IOS 微信下方导 航栏进行特殊处理。
|
||||
|
||||
- *[构建流水线与管理工作]* 使用了 Github Actions 进行自动化构建与部署,推送到相关云服务。负责内部测试、研发 外包的发布、对接工作。
|
||||
22
zh/projects/mihome.typ
Normal file
22
zh/projects/mihome.typ
Normal file
@ -0,0 +1,22 @@
|
||||
#import "@preview/brilliant-cv:3.1.2": cvEntry, cvSection
|
||||
|
||||
|
||||
#cvEntry(
|
||||
title: "基于 React native 开发的米家空调插件,基于 Spec 协议",
|
||||
society: "米家空调插件",
|
||||
tags: ("React Native", "Redux", "Spec Protocol", "i18n", "RTL"),
|
||||
date: "2025.4-2025.8",
|
||||
location: "南京",
|
||||
description: "",
|
||||
)
|
||||
|
||||
在小米实习时,负责维护和迭代功能的的部分。我主要负责海外的空调产品线的插件迭代、Bugfix、新品需求。
|
||||
|
||||
- *[项目架构]* 项目采用 React Native 开发,使用 Spec 协议与米家 APP 进行通信。
|
||||
|
||||
- *[国际化支持]* 使用自封装库完成国际化支持,支持多语言切换。
|
||||
|
||||
- *[RTL 支持]* 支持了 RTL 布局,支持从右向左的布局。通过对 Victory Chart 等组件库的再封装,实现了图标等组件的 RTL 布局的支持。
|
||||
|
||||
- *[状态管理]* 使用 Redux 的修改版 Rematch 进行状态管理,自动订阅服务端 Spec 变更
|
||||
|
||||
27
zh/projects/nuistshare.typ
Normal file
27
zh/projects/nuistshare.typ
Normal file
@ -0,0 +1,27 @@
|
||||
#import "@preview/brilliant-cv:3.1.2": cvEntry, cvSection
|
||||
|
||||
|
||||
#cvEntry(
|
||||
title: "一个资源分享站",
|
||||
society: "NuistShare",
|
||||
location: "南京",
|
||||
tags: ("Nuxt", "NestJs", "Prisma", "TypeScript", "S3", "AList", "Github OAuth"),
|
||||
description: "",
|
||||
date: "2023.7-2023.9",
|
||||
)
|
||||
|
||||
一个使用 Nuxt3、NestJs 开发的学习资料共享站点。部署在腾讯云上。
|
||||
|
||||
- *[打包体积优化]* 优化字体以及部分样式进行懒加载,部分组件使用动态导入加载,将首屏需要加载的资源从 2M 优化到240k,大大缩短首屏加载时间。
|
||||
|
||||
- *[中文字体分块优化]* 使用开源项目中文网字计划对字体分包,导出为分片 woff 并在 CDN 处设置强缓存。解决字体过大加载缓慢 的问题。
|
||||
|
||||
- *[Prerender 支持]* 使用 Nuxt 3 的能力,提前预渲染主页样式,缩短首屏加载时间
|
||||
|
||||
- *[CDN 集成部署优化]* 利用 vite-plugin-qiniu, 将 assets 上传至 CDN 并配置强缓存
|
||||
|
||||
- *[S3、AList 多存储协议支持]* 通过抓包并分析 Alist,支持了 Alist 协议,并且支持了 S3 协议。
|
||||
|
||||
- *[Github OAuth、邮箱验证支持]* 通过 node-mail 库支持了发送邮件,支持了 Github OAuth 登录。
|
||||
|
||||
- *[响应式UI设计]* 使用了 Vue 3 的 Composition API 进行开发,使用了 Vue 3 的 Suspense 特性, 实现了响应式 UI 设计。
|
||||
22
zh/projects/typhoon.typ
Normal file
22
zh/projects/typhoon.typ
Normal file
@ -0,0 +1,22 @@
|
||||
#import "@preview/brilliant-cv:3.1.2": cvEntry, cvSection
|
||||
|
||||
#cvEntry(
|
||||
title: [气象科学与技术研究],
|
||||
society: [次季节性热带气旋智能预报研究],
|
||||
date: [2023.12 - 至今],
|
||||
location: [南京],
|
||||
tags: ("PyTorch", "深度学习", "气象预报"),
|
||||
description: "",
|
||||
)
|
||||
开发轻量级多尺度卷积网络(LMCNet)预测台风活动,显著超越传统方法
|
||||
|
||||
- *[创新点]* 提出LMCNet (轻量级多尺度卷积网络),结合多模态预报数据与气候学观测数据,实现更精确的台风概率预测。针对S2S台风数据集规模小的特点,采用浅层网络架构和多尺度卷积操作,以更少的参数提高季节性台风预测的位置准确度。
|
||||
|
||||
- *[优秀的模型性能]* 在2023年季节30天预报期内,我们的方法在DBSS评分方面较ECMWF(最佳传统预报模式)提高36%,较UNet预报方法提高18%。当预报提前期少于5天时,LMCNet方法将均方误差降低了60%,显著提高了短期预报精度。
|
||||
|
||||
// - *[技术栈应用]* 采用PyTorch构建深度学习模型框架,使用PyTorch Lightning简化训练流程并提高代码可读性,通过Seaborn生成高质量可视化图表评估模型预测结果与真实气象数据的差异。
|
||||
|
||||
- *[成果]* 获得优秀毕业论文,目前正在整理并准备提交气象学顶级期刊发表。衍生项目得到全国软件设计大赛全国二等奖。项目展示了深度学习在气象学领域的应用潜力,为提高热带气旋预测准确性提供了新思路。
|
||||
|
||||
- *[能力提升]* 通过此项目,我系统掌握了深度学习算法设计、大规模气象数据处理、科研论文撰写和项目管理能力,为后续研究奠定了坚实基础。
|
||||
|
||||
@ -1,14 +1,14 @@
|
||||
|
||||
// Import
|
||||
#import "@preview/brilliant-cv:2.0.5": cvSection, cvSkill, hBar
|
||||
#import "@preview/brilliant-cv:3.1.2": cvSection, cvSkill, hBar
|
||||
#let metadata = toml("../metadata.toml")
|
||||
#let cvSection = cvSection.with(metadata: metadata)
|
||||
|
||||
|
||||
#cvSection("开发技能")
|
||||
|
||||
#set text(weight: 300)
|
||||
#set strong(delta: 200)
|
||||
// #set text(weight: 400)
|
||||
#set strong(delta: 300)
|
||||
|
||||
#columns(2)[
|
||||
|
||||
Loading…
x
Reference in New Issue
Block a user