代做Data Mining: Projects List调试Python程序

Data Mining: Projects List

October 1st, 2025

1    Problem 1: Relative Positional Encoding for ViTs with STRING

Consider the class of relative positional encoding (RPE) mechanisms from  [Schenck et al., 2025]. The goal of this project is to compare the regular Cayley-STRING variant from that paper (with the skew-symmetric matrix S trained from scratch) with some customized versions of it.  Build the following customized versions:   (1) reflection-variant encoding rotation matrices P via reflections in disjoint spaces (rather than Givens matrices in disjoint spaces, as it is the case in the regular parameterization of the rotation matrices in RoPE mechanism), (2) sparse-S variant with a sparse matrix S. The sparsity is obtained by sampling a fraction f all nonzero entries (once) and learning those entries.  Try different values of the hyperparameter f.  Use the following datasets to conduct the comparison:  (a) MNIST,  (b) CIFAR-10.   Provide code of your implementation and compare also training an inference time of different variants. For the sparse-S variations, apply linear solvers for sparse linear systems for the efficient computation.  For each variant, the comparison should be conducted by building a small Vision Transformer (ViT) leveraging that particular variant.

2    Problem 2: Beyond STRING: achieving rotation invariance

Note that the class of STRING relative position encoding mechanisms (RPEs), defined in [Schenck et al., 2025] and containing RoPE [Su et al., 2024] as its very special instantiation, is still not rotation invariant. The goal of this project is to propose an efficient RPE that is rotation invariant.  Design a mechanism, where modulated entries of the attention matrix A are of the form.

(1)

where p : R → R is an arbitrary polynomial and ci, cj  ∈ Rd are the coordiante-vectors corresponding to the ith and jth token.  To achieve particularly good computational efficiency, you can assume that the equality above is satisfied only on average  (e.g.   E[Ai,j]  is equal to the  RHS; thus the proposed mechanism can be randomized).  For the randomized mechanism, present corresponding concentration results. As in the case of STRING, the mechanism should work by the parallel post- processing of queries and keys.

3    Problem 3: Improving efficient Vision Transformers with RPEs

The goal of this project is to improve downstream accuracy of the ViTs leveraging Performers, by combining them with various RPE methods.  Consider a small ViT model with the Performer backbone for attention computation (consider two Performer variant:  (a) leveraging positive random features for the unbiased approximation of the softmax kernel, (b) Performer-ReLU). Enrich your Performer-ViT with the following RPE mechanisms:  (1) most general RPE  [Luo et al.,  2021], (2) circulant-STRING from [Schenck et al., 2025], (3) regular RoPE mechanism from [Su et al., 2024]. For all three RPE variants, provide efficient implementations of the corresponding enriched Performers. Compare Performer variations with the regular brute-force attention ViT. Can you close the accuracy gap between regular ViT and Performer variants, by leveraging RPEs ?  Use the following datasets to conduct the comparison:  (a) MNIST,  (b) CIFAR-10.  Provide code of your implementation and compare also training an inference time of different variants.

4 Problem 4: Approximating softmax kernel with pseudo-Gaussian projections

Consider a variation of the positive random feature map mechanism, as well as the mechanism lever- aging trigonometric functions (both discussed in the class), where Gaussian projections are replaced with Rademacher-vectors of entries taken independently from the two-element-set {-1, +1}.  Com- pute the mean squared errors (MSEs) of the corresponding estimators of the softmax kernel.  Can you characterized pairs of inputs to the softmax kernel for which those MSEs are maximized/minimized ? What can you say about asymptotic properties of both MSEs as the number of the applied projec- tions goes to infinity ?  Propose a modification of the above mechanism, where different Rademacher- vectors are exactly orthogonal (i.e. the entries are no longer sampled independently across different Rademacher vectors, but are still independent within a given Rademacher-vector).  Test empirically, whether your proposed modification further reduces MSE. For the modified variant, you should of course assume that the number of Rademacher vectors is upper-bounded by the dimensionality of queries/keys.

References

[Luo et al., 2021]  Luo, S., Li, S., Cai, T., He, D., Peng, D., Zheng, S., Ke, G., Wang, L., and Liu, T. (2021).  Stable, fast and accurate:  Kernelized attention with relative positional encoding.  In Ranzato, M., Beygelzimer, A., Dauphin, Y. N., Liang, P., and Vaughan, J. W., editors, Advances in Neural Information Processing Systems 34:  Annual  Conference on Neural Information Processing Systems 2021, NeurIPS 2021, December 6-14, 2021, virtual, pages 22795-22807.

[Schenck et al., 2025]  Schenck, C., Reid, I., Jacob, M. G., Bewley, A., Ainslie, J., Rendleman, D., Jain, D., Sharma, M., Dubey, A., Wahid, A., Singh, S., Wagner, R., Ding, T., Fu, C., Byravan, A., Varley, J., Gritsenko, A. A., Minderer, M., Kalashnikov, D., Tompson, J., Sindhwani, V., and Choromanski, K. (2025). Learning the ropes:  Better 2d and 3d position encodings with STRING. ICML 2025, abs/2502.02562.

[Su et al., 2024]  Su, J., Ahmed, M., Lu, Y., Pan, S., Bo, W., and Liu, Y. (2024). Roformer: Enhanced transformer with rotary position embedding. Neurocomputing, 568:127063.


热门主题

课程名

mktg2509 csci 2600 38170 lng302 csse3010 phas3226 77938 arch1162 engn4536/engn6536 acx5903 comp151101 phl245 cse12 comp9312 stat3016/6016 phas0038 comp2140 6qqmb312 xjco3011 rest0005 ematm0051 5qqmn219 lubs5062m eee8155 cege0100 eap033 artd1109 mat246 etc3430 ecmm462 mis102 inft6800 ddes9903 comp6521 comp9517 comp3331/9331 comp4337 comp6008 comp9414 bu.231.790.81 man00150m csb352h math1041 eengm4100 isys1002 08 6057cem mktg3504 mthm036 mtrx1701 mth3241 eeee3086 cmp-7038b cmp-7000a ints4010 econ2151 infs5710 fins5516 fin3309 fins5510 gsoe9340 math2007 math2036 soee5010 mark3088 infs3605 elec9714 comp2271 ma214 comp2211 infs3604 600426 sit254 acct3091 bbt405 msin0116 com107/com113 mark5826 sit120 comp9021 eco2101 eeen40700 cs253 ece3114 ecmm447 chns3000 math377 itd102 comp9444 comp(2041|9044) econ0060 econ7230 mgt001371 ecs-323 cs6250 mgdi60012 mdia2012 comm221001 comm5000 ma1008 engl642 econ241 com333 math367 mis201 nbs-7041x meek16104 econ2003 comm1190 mbas902 comp-1027 dpst1091 comp7315 eppd1033 m06 ee3025 msci231 bb113/bbs1063 fc709 comp3425 comp9417 econ42915 cb9101 math1102e chme0017 fc307 mkt60104 5522usst litr1-uc6201.200 ee1102 cosc2803 math39512 omp9727 int2067/int5051 bsb151 mgt253 fc021 babs2202 mis2002s phya21 18-213 cege0012 mdia1002 math38032 mech5125 07 cisc102 mgx3110 cs240 11175 fin3020s eco3420 ictten622 comp9727 cpt111 de114102d mgm320h5s bafi1019 math21112 efim20036 mn-3503 fins5568 110.807 bcpm000028 info6030 bma0092 bcpm0054 math20212 ce335 cs365 cenv6141 ftec5580 math2010 ec3450 comm1170 ecmt1010 csci-ua.0480-003 econ12-200 ib3960 ectb60h3f cs247—assignment tk3163 ics3u ib3j80 comp20008 comp9334 eppd1063 acct2343 cct109 isys1055/3412 math350-real math2014 eec180 stat141b econ2101 msinm014/msing014/msing014b fit2004 comp643 bu1002 cm2030
联系我们
EMail: 99515681@qq.com
QQ: 99515681
留学生作业帮-留学生的知心伴侣!
工作时间:08:00-21:00
python代写
微信客服:codinghelp
站长地图