落园 |专注经济视角下的互联网

≪统计学习精要(The Elements of Statistical Learning)≫课堂笔记(十)

一个东西写到10,总会多少有点成就感...只是不知道已经磨掉了多少人的耐心了呢?

此外这节公式密集,大家看着办吧...

-----------笔记开始------------

继续上一讲,先说说EM算法。

MM、EM和GMM

1. MM(混合模型)

(1) 定义:P(x)=\sum_{k=1}^{K}\pi_{k}P_{k}(x),其中\pi_{k}\geq0\sum_{k=1}^{K}\pi_{k}=1,构成一个离散分布。同时有P_{k}(x)\geq0,且\int P_{k}(x)dx=11\leq k\leq K

(2) 隐变量

我们有数据(x,G),同时依据条件概率分布,有P(x,G)=P(G)P(x|G)。记P(G)=\pi_{k},则P(x|G=k)=P_{k}(x),其中1\leq k\leq K

则有P(x)=\sum_{G}P(x,G)=\sum_{G}P(G)P(x|G)=\sum_{k=1}^{K}\pi_{k}P_{k}(x)为x的边际分布。

(3) GMM(正态混合模型)

P_{k}(x)=\frac{1}{\sqrt{2\pi\sigma_{k}^{2}}}\exp\left(-\frac{(x-\mu_{k})^{2}}{2\sigma_{k}^{2}}\right)1\leq k\leq K,我们有P(x)=\sum_{k=1}^{K}\pi_{k}\exp\left(-\frac{(x-\mu_{k})^{2}}{2\sigma_{k}^{2}}\right),且P(x,G=k)=\pi_{k}\exp\left(-\frac{(x-\mu_{k})^{2}}{2\sigma_{k}^{2}}\right)1\leq k\leq K

(4) 对数似然函数和最大似然估计

对数似然函数写为l(\theta)=\sum_{i=1}^{N}\log P(x|\theta)=\sum_{i=1}^{N}\log\sum_{i=1}^{N}P(x_{i},G=k|\theta)=\sum_{i=1}^{N}\log(\sum_{k=1}^{K}P(G=k|\theta)P(x_{k}|G=k,\theta))。则我们要求的就是\theta^{*}=\arg\max_{\theta}l(\theta),其中\theta=\{\{\pi_{k}\},\{\mu_{k}\},\{\sigma_{k}^{2}\}\}

2. EM算法 (expectation maximum,期望最大方法)

(1) 迭代方法: 给定起始值\theta^{(0)},迭代出\theta^{(1)},..,\theta^{(t)},...。那么问题就是,如何在已知\theta^{(t)}的情况下,求\theta^{(t+1)}

(2) E1步:求P(G|x_{i},\theta^{(t)})。函数形式已知,故可以求各种条件概率什么的。所以有:

P(G|x_{i},\theta^{(t)})=\frac{P(x_{i},G=k)}{P(x_{i})}=\frac{\pi_{k}P_{k}(x)}{\sum_{l=1}^{K}\pi_{l}P_{l}(x)}\equiv \gamma_{ik}^{(t)}

E2步:计算\mathcal{L}(\theta|\theta^{(t)})=\sum_{i=1}^{N}\sum_{k=1}^{K}\underbrace{(\log P(x_{i},G=k|\theta))P(G=k|x_{i},\theta^{(t)})}_{expectation},由于函数形式已知,我们可以计算并将\sum移出来,所以换成线性形式。

(3) M步:求\theta^{(t+1)}=\arg\max_{\theta}\mathcal{L}(\theta|\theta^{(t)}),这样就完成了迭代。需要证明的性质是:随着迭代,l越来越大,且收敛。

(4) 定理:l(\theta^{(t+1)})\geq l(\theta^{(t)})

证明:
\begin{eqnarray*}\mathcal{L}(\theta|\theta^{(t)}) & = & \sum_{i=1}^{N}\sum_{k=1}^{K}\log P(x_{i}|\theta))P(G=k|x_{i},\theta^{(t)})+\sum_{i=1}^{N}\sum_{k=1}^{K}\log P(G=k|x_{i},\theta^{(t)})P(G=k|x_{i},\theta^{(t)})\\& = & l(\theta)+\sum_{i=1}^{N}\sum_{k=1}^{K}\log P(G=k|x_{i},\theta^{(t)})P(G=k|x_{i},\theta^{(t)})\\& & -\sum_{i=1}^{N}\sum_{k=1}^{K}\log P(G=k|x_{i},\theta)P(G=k|x_{i},\theta^{(t)})+\sum_{i=1}^{N}\sum_{k=1}^{K}\log P(G=k|x_{i},\theta)P(G=k|x_{i},\theta^{(t)})\\& = & l(\theta)-\sum_{i=1}^{N}H_{i}(\theta^{(t)})-\sum_{k=1}^{K}KL(\theta^{(t)}|\theta)\end{eqnarray*}

其中H_{i}(\theta^{(t)})=-\sum_{k=1}^{K}\log P(G|x_{i},\theta)P(G|x_{i},\theta^{(t)}),且KL(\theta^{(t)}|\theta)\equiv\sum_{k=1}^{K}[\log P(G|x_{i},\theta^{(t)})P(G|x_{i},\theta^{(t)})-\log P(G|x_{i},\theta)P(G|x_{i},\theta^{(t)})]=\sum_{k=1}^{K}\log\frac{P(G|x_{i},\theta^{(t)})}{P(G|x_{i},\theta)}-P(G|x_{i},\theta^{(t)})>0,定义为两分布的KL距离。

所以\mathcal{L}(\theta^{(t+1)}|\theta^{(t)})=l(\theta^{(t+1)})-\sum_{i=1}^{N}H_{i}(\theta^{(t)})-\sum_{k=1}^{K}KL(\theta^{(t)}|\theta^{(t+1)}),且\mathcal{L}(\theta^{(t)}|\theta^{(t)})=l(\theta^{(t)})-\sum_{i=1}^{N}H_{i}(\theta^{(t)})-\underbrace{\sum_{k=1}^{K}KL(\theta^{(t)}|\theta^{(t)})}_{0}。而由M步,\mathcal{L}(\theta^{(t+1)}|\theta^{(t)})-\mathcal{L}(\theta^{(t)}|\theta^{(t)})\geq0,故有l(\theta^{(t+1)})-l(\theta^{(t)})=KL(\theta^{(t)}|\theta^{(t+1)})\geq0

在GMM的情况下,应用EM算法,则有:

(1) E1步:\gamma_{ik}^{(t)}=\frac{\pi_{k}(2\pi\sigma_{k}^{2})^{-1/2}\exp(-(x_{i}-\mu_{k})^{2}/2\sigma^{2})}{\sum_{l=1}^{K}\pi_{l}P_{l}(x)},可以直接计算。

(2) E2步:\mathcal{L}(\theta|\theta^{(t)})=\sum_{i=1}^{N}\sum_{k=1}^{K}\gamma_{ik}^{(t)}[\log\pi_{k}^{(t)}-\frac{1}{2}\log\pi-\frac{1}{2}\log(\sigma_{k}^{2})-\frac{(x-\mu_{k})^{2}}{2\left(\sigma_{k}^{(t)}\right)^{2}}]

(3) M步:注意有约束条件\sum_{k=1}^{K}\pi_{k}=1,所以使用拉格朗日乘子法:

L(\theta)=\mathcal{L}(\theta|\theta^{t})+\lambda(\sum\pi_{k}-1),故有一阶条件:\frac{\partial L}{\partial\pi_{k}}=\sum_{i=1}^{N}\gamma_{ik}^{(t)}\frac{1}{\pi_{k}^{(t)}}+\lambda=0。从而\pi_{k}^{t+1}=\frac{N_{k}^{(t)}}{N},其中N_{k}^{(t)}=\sum_{i=1}^{N}\gamma_{ik}^{(t)}

还有一阶条件:\frac{\partial L}{\partial\mu_{k}}=\sum_{i=1}^{N}-\frac{2(x_{i}-\mu_{k}^{(t)})(-1)}{2\left(\sigma_{k}^{(t)}\right)^{2}}=0,得到\mu_{k}^{(t+1)}=\frac{1}{N_{k}}\sum_{i=1}^{N}x_{i}

最后,\frac{\partial L}{\partial(\sigma_{k}^{2})}=0,有\left(\sigma_{k}^{t+1}\right)^{2}=\frac{1}{N_{k}}\sum_{i=1}^{N}(x_{i}-\mu_{k}^{(t+1)})^{2}

对GMM而言,E步和M步在k=2的时候,求解过程可参见书上。

第七章:模型评估与选择

1. 概念: 我们有数据集D,函数族\mathcal{F}和损失函数\mathcal{L},这样得到最优的f(x)\in\mathcal{F},然后求得\hat{y}=f(x)

(有监督的学习)。之后就是对模型进行评估:\hat{y}的精度如何(使用测试集)?模型的选择就是\mathcal{F}的选择,使得测试误差比较小。

2. 方法:

(1) 数据充分:分成三块,1/2用来训练(train),1/4用来检验(validation),1/4用来测试(test)。其中validation

的概念是,在\sum_{i=1}^{N}\mathcal{L}(y_{i},f(x_{i}))+\lambda J(f)中,加入J函数来考虑函数族的复杂度,以避免过拟合。而validation就是来调正和选择这里的\lambda,再用train和validation重新训练模型。

最后,用test数据集,测试并且评估测试误差。

(2) 数据不充分:一种是cross-validation,分成k(比如5-10)份,极端的就是K=N,ave-win-out;另一种是bootstrap,后续章节详述。


新媒体营销中随机分组实验的失败

这个话题可以很深,我这里只是随便写写。当然我也不去定义什么是“新媒体”了...基本上下面可以视之为社交网络媒体。此文纯属若干无知的随便念叨,内行请无视。

记得原来在做社会实验的时候,最头疼的就是网络效应——这东西会让你的随机分组失效。如果网络扩散是均匀的也就罢了,这东西还不均匀,搞得随机分组基本上被破坏殆尽。今天和做社会网络营销这块儿同事聊起,发现他们在新媒体营销上也是遇到了类似的问题——传统的A/B test基本失效,因为control组会被极大程度的“污染”。和电视营销的地理隔离还不一样,社交网络是无孔不入的...

但是偏偏,我们还是希望可以利用这样的网络效应的——主动的传播岂不是更好?于是问题就变成了如何去精准衡量网络效应。

从我们以前的做法(可以参见我的硕士论文,in English),基本上是需要动用IV的...哎,然后这个IV还其难找无比。有些幸运的情况,IV是可以找到的,但是也需要一些外在的shock强行的打破现有的网络连接。

如果说要找一种比较简单的做法,那可能就是类似于spatial econometrics他们做的那样,对各个个体在空间中的位置进行加权。比如你要衡量微博营销的ROI,肯定要跟踪到实际覆盖的个体,然后在构造了网络结构的基础上,对个体的位置进行加权。但是讨厌的是,位置或者连接这些东西都是内生的...所以需要去找自然实验,然后去找工具变量...

总而言之,在我读过的为数不多的paper里面,可以很好的衡量网络效应的很少,而那些极少的还是控制了可控的资源的(比如实际的物品发放而不是新闻式传播)。感觉受新媒体的影响和冲击,很多传统的营销方式都在面临着极大的变化,做的好的往往不是分析人员算出来的而更多的是营销人员一步步摸索出来的...

所以,其实我想说的是,可能需要增加一些更好使用的指标来衡量新媒体营销的力量,而不是期待更好的分析方法的改进来支撑营销。后者还需时间来打磨(如果不是case by case的找IV的话)...


≪统计学习精要(The Elements of Statistical Learning)≫课堂笔记(九)

眼瞅着这学期也快接近尾声了,也在讲我越来越不熟悉的东西了...

核平滑与局部方法

1. 核平滑器

(1) K-NN(K近邻)

KNN的思想已经说过很多遍了,大致就是找点x的k个近邻,然后取其y_{i}平均值作为x点y的预测值\hat{y}。不过这里我们就在想了,可不可以加权呀~于是从最简单的\hat{y}=\frac{1}{k}\sum_{x_{i}\in N_{k}(x)}y_{i},我们给他按距离算个加权平均:\hat{y}=\sum_{x_{i}\in N_{k}(x)}w_{i}y_{i},其中w_{i}代表权重,离x点越近越大,越远越小。这样听起来更make sense一点嘛~近朱者赤,近墨者黑。

(2) 单峰函数

顾名思义,就是长得像一个山峰的函数,比如我们最经典的正态钟型函数,或者翻过来的二次抛物线函数等等。

(3) 权重(按距离)

我们定义权重k_{\lambda}(x,x_{i})=D\left(\frac{\left\Vert x-x_{i}\right\Vert ^{2}}{\lambda}\right),再进一步归一化:\frac{k_{\lambda}(x,x_{i})}{\sum_{j=1}^{N}k_{\lambda}(x,x_{j})},1\leq i\leq N

多维的情况下,写成矩阵形式就是k_{\lambda}(x,x_{i})=D\left(\frac{(x-x_{i})^{'}A(x-x_{i})}{\lambda}\right),其中A为正定对角阵,然后我们就可以加权了。

2. 局部方法

(1) 一般概念

我们有数据集D=\{(x_{i},y_{i}),1\leq i\leq N\},然后定义函数族\mathcal{F}=\{f(x|\theta),\theta\in\Theta\}。再定义损失函数\mathcal{L}(y,f(x)), 我们的目标就是最小化\sum_{i}\mathcal{L}(y_{i},f(x_{i}))

相应的引入了加权的概念之后,我们就可以定义加权损失函数:\sum_{i}\frac{k_{\lambda}(x,x_{i})}{\sum_{j=1}^{N}k_{\lambda}(x,x_{j})}\mathcal{L}(y_{i},f(x_{i}|\theta)),然后对于每个x做优化,寻找使其最小化的\theta

(2) 具体例子

(i) 局部回归: y=f(x|\theta)=\theta'x=\sum_{j=1}^{p}\theta_{j}x_{j},则损失函数为\sum_{1}^{N}\bar{k}_{\lambda}(x,x_{i})[y_{i}-f(x_{i}|\theta)]^{2},其中\bar{k}_{\lambda}(x,x_{i})代表已经归一化的权重。

在线性的情况下,我们有\sum_{1}^{N}\bar{k}_{\lambda}(x,x_{i})[y_{i}-\sum_{1}^{p}\theta_{j}x_{ij}]^{2},有点类似于我们常见的加权最小二乘法。这里的思想也是,在x点附近的点权重会比较大,离x远的权重则比较小,整体感觉就是在x点附近做了一个回归分析。

(ii) 局部似然:和局部回归蛮像的,只是把损失函数换成(对数)似然函数,即从最大化 \sum_{1}^{N}\log P(y_{i}|x_{i},\theta)到现在的最大化加权似然函数\sum_{1}^{N}\bar{k}_{\lambda}(x,x_{i})\log P(y_{i}|x_{i},\theta)

3. 密度估计与分类

(1) 密度与分类: 我们有x和观测结果G的联合分布:P(x,G)=P(G)P(x|G),其中p(G)为先验的结果分布,在有K类结果的情况下,写成\pi_{k}=P(G=k)。这样,也可以写开为P_{k}(x)=P(x|G=k), 其中1\leq k\leq K

反过来,后验概率P(G|x)=\frac{P(G,x)}{P(x)}=\frac{\pi_{k}P_{k}(x)}{\sum_{1}^{K}\pi_{l}P_{l}(x)},所以我们有贝叶斯分类器\hat{G}=\arg\max P(G|x)

(2) 密度估计

为了使用贝叶斯分类器,我们需要先对密度进行估计。

(i) 直方图: 最简单的就是根据直方图来估计密度,这个没什么好说的...

(ii) 核估计方法(Parzen):Parzen提出的核密度估计为\hat{f(x)}=\frac{1}{N}k_{\lambda}\left(\frac{\left\Vert x-x_{i}\right\Vert ^{2}}{\lambda}\right)=\frac{1}{N}\sum_{i=1}^{N}\frac{1}{\sqrt{2\pi\sigma^{2}}}e^{-\frac{(x-x_{i})^{2}}{2\sigma^{2}}},该估计当N\rightarrow\infty\sigma在减小的时候,收敛于f(x)

4. 核作为基函数

密度函数f(x)=\sum_{i=1}^{N}w_{i}k_{\lambda}\left(\frac{\left\Vert x-x_{i}\right\Vert ^{2}}{\lambda}\right),然后定义函数族\mathcal{F}=\{\sum_{i=1}^{N}w_{i}k\left(\frac{\left\Vert x-x_{i}\right\Vert ^{2}}{\lambda}\right)\},则其中w_{i}我iyigexianxingde参数,k为指定的函数类,\lambda亦为函数参数。这样的话我们有三个函数的参数,指定某一个便可以简化函数形式。不过这里的问题是,没有很好的算法来求解优化问题。比如对于正态分布,我们以写出来\min_{\{w_{i}\},\{\sigma_{j}\},\{\mu_{j}\}}\mathcal{L}=\min_{\{w_{i}\},\{\sigma_{j}\},\{\mu_{j}\}}\sum_{i=1}^{N}(y_{i}-\sum_{j=1}^{m}w_{j}\frac{1}{\sqrt{2\pi\sigma_{j}^{2}}}e^{-\frac{(x_{i}-\mu_{j})^{2}}{2\sigma_{j}^{2}}}),然后的求解就比较复杂了。

上面的两个是非参数方法,下面说一些参数方法。

(iii) 混合模型(GMM, Gauss Mixed Model)

f(x|\theta)=\sum_{k=1}^{K}\pi_{k}\frac{1}{\sqrt{2\pi\sigma_{k}^{2}}}e^{-\frac{(x-\mu_{k})^{2}}{2\sigma_{k}^{2}}},其中参数有\theta=\{\{\pi_{k}\},\{\mu_{k}\},\{\sigma_{k}\}\},然后可以利用最大似然准则,最大化\prod_{i=1}^{N}f(x_{i}|\theta)=\max_{\theta}\sum_{i=1}^{N}\log f(x_{i}|\theta),具体算法可用EM,下节课详述。

-----稍稍跑题------

GMM,我印象中它怎么是 Generalized Moment Method, 广义矩估计呢?果然是被计量经济学祸害太深了...


读书越多,被“剩女”的可能性越大?

今天例行的刷Marginal Revolution,果然发现一篇比较好玩的paper

Housewife, “Gold Miss,” and Equal: The Evolution of Educated Women’s Role in Asia and the U.S.

简而言之呢,就是作者在好奇,为什么亚洲国家高学历的黄金剩女越来越多?嘻嘻,这也是作者Tyler Cowen 的Job Market Paper。虽然数据不涉及中国,但是眼瞅着韩国和日本现在的景象大概就是中国几十年后的必经之路,所以看看也是挺赏心悦目尤其是有借鉴意义的。

2010827112221图片与正文几乎无关...

我就勤劳的翻译一下摘要吧:

自上世纪70年代中期以来,美国拥有大学学历的女士结婚或曾经结婚的比例、较之于教育程度稍逊的女士,在逐渐升高。然而有趣的是,与此同时亚洲的发达国家该比例却在降低——也就是说出现来越来越多的“黄金剩女”。本文认为,亚洲近几十年的快速发展和两代人之间的择偶观念传递共同造就了该现象。
经济发展带来了更多拥有大学学历的女性,从而增加了高学历女性供给;然而与此同时,男性对其妻子家务劳动的需求减少的却比较缓慢,尤其是受到他们母亲在家中角色的影响。(换成人话就是,现代女性在进步,而男性的择偶观依旧停留在找保姆阶段,尤其是在婆婆的观念中...)。本文中,我发现一个正向的工资刺激、较之于缓慢的工资增长,会造成婚姻市场中受教育女性和男性更大的不匹配(换成人话就是,女性工资涨得快结果择偶越来越难)。我使用了如下三个数据集来检验这样的结论:the Japanese General Social Survey, the American Time Use Survey, and the U.S. Census and American Community Survey.日本的数据显示,母亲的教育和工作程度会影响到他儿子的择偶观;在美国,亚洲女性家务劳动的时间和其丈夫母国的女性劳动参与率呈负相关;最后,日韩裔的大学毕业女生在美国婚姻市场有着更多的选择——她们更可能嫁给美国人,而与此同时日韩男生则没有此优势,并且这样的性别间差异在出生于外国的人群中更为明显(较之于出生于美国)

Abstract: The fraction of U.S. college graduate women who ever marry has increased relative to less educated women since the mid-1970s. In contrast, college graduate women in developed Asian countries have had decreased rates of marriage, so much so that the term “Gold Misses” has been coined to describe them. This paper argues that the interaction of rapid economic growth in Asia combined with the intergenerational transmission of gender attitudes causes the “Gold Miss” phenomenon. Economic growth has increased the supply of college graduate women, but men’s preference for their wives’ household services has diminished less rapidly and is slowed by women’s role in their mothers’ generation. Using a dynamic model, I show that a large positive wage shock produces a greater mismatch between educated women and men in the marriage market than would gradual wage growth. I test the implications of the model using three data sets: the Japanese General Social Survey, the American Time Use Survey, and the U.S. Census and American Community Survey. Using the Japanese data, I find a positive relationship between a mother’s education (and employment) and her son’s gender attitudes. In the U.S., time spent on household chores among Asian women is inversely related to the female labor force participation rate in husband’s country of origin. Lastly, college graduate Korean and Japanese women in the U.S. have greater options in the marriage market. They are more likely to marry Americans than Korean and Japanese men do, and this gender gap is larger among the foreign born than the U.S. born.

总而言之这个逻辑就是:

  • 随着经济的快速增长,高学历女性越来越多,而与此同时高学历男性的择偶观依旧停留在他们上一辈的观念(要求老婆在家更多做家务),就算移民到美国了依旧如此,所以造成了高端女性“被剩女”;
  • 此外如果亚裔女性到了美国,她们更容易嫁“美国佬”,而亚裔男性则很少娶西方女性。
  • 不过那些出生长大在美国的就没有这么明显的现象...

还是蛮好玩的是不是?我看完了之后觉得优秀的女孩子们唯一的出路就是——好好读书,跑到美国,嫁美国人...不要对本国的男士抱太高期望...汗。或者,谁来向男同胞们呼吁一下——你们是娶老婆,不是娶保姆!哈哈...

另外扫了一眼下面的评论,给出了一些蛮好玩的统计数字:

“The marriage competition is fierce, and statistically, women hold the cards. Given the nation’s gender imbalance, an outgrowth of a cultural preference for boys and China’s stringent family-planning policies, as many as 24 million men could be perpetual bachelors by 2020, according to the report.”

预计到2020年中国大约有2400万单身汉...(重男轻女+一胎政策的恶果)


失败的慕斯蛋糕制作记录

果然最近记忆力衰退,早知道就不浪费材料做慕斯蛋糕了,还不如直接吃掉呢...

慕斯蛋糕其实应该是满简单的,如果不象我这样脑子不时短路的话...步骤大致如下。

1.制作蛋糕胚
很多蛋糕店里面的慕斯就是纯慕斯,一点都不负责任~在家里当然还是要努力的制作一下蛋糕胚。
蛋糕胚其实也不难做,就是鸡蛋+面粉嘛。
首先全蛋打发。这个大家还是靠打蛋器吧,不要浪费鸡蛋了。全蛋打发比单纯蛋清打发要困难许多,也不用象蛋清打发那样要求尖尖能竖起来。中途别忘了加点糖,可以更好的吸收水分。
这里,像我这样家里没有灵敏的秤的孩子,如果你碰巧也有一个电饭锅的量杯...
白砂糖的话,大概30g/40ml,面粉密度大概是0.5g/ml,所以这里方子是:三个鸡蛋、60g白糖、80克面粉。大概是半量杯白糖、一量杯面粉就可以了。
然后就是筛入面粉,这个就靠网筛就可以了。然后打着圈混合起来,混合好了就可以倒入蛋糕模具内。为了好脱模,模具底层凃一下薄薄的橄榄油(或者黄油),然后烤箱上下火180度20分钟(记得先预热~我大概烤了半个小时,主要是开始用160度暖了一会儿,然后加火力到180度狂烤)。

cake-process部分成功步骤图

2. 制作慕斯
最有名的大概是草莓慕斯,不过大冷天的不好找草莓,正巧在超市里买了甜甜的都乐菠萝,就直接对菠萝下手了。
如果像我一样可怜,家里没有搅拌器,那么就用切萝卜丝土豆丝的筛子切一下,然后蒜臼子砸一下,也可以弄好的。
然后就是布丁粉加热熔化...我傻傻的觉得这东西不用加热也可以,就脑子抽风的把它直接跟菠萝酱混合起来了。结果就悲剧了。
到此时,我还浑然不觉的去打发淡奶油,打发到六成(稍稍能立起尖来),然后就把它和菠萝酱混合起来...然后恍然觉得不对——我怎么没有加热过任何东西!这个时候才意识到自己是有多么的悲剧,慕斯就不用想了...怎么也冻不起来了。

我还继续很傻的试图把打发好的奶油和果酱混合物扔到烤箱里面加热,结果就更悲剧了,打发的白打发了,全都瘫回去了 T_T

下次继续努力,可怜家里没有淡奶油了...